936 resultados para Arsenic remediation
Resumo:
Työssä selvitettiin kuparielektrolyysissä syntyvän sivutuotteen, arseenitrioksidin, soveltuvuutta The New Boliden Kokkola Zinc Oy:n sinkkitehtaan liuospuhdistuksen koboltinpoistovaiheeseen. Nykyään sinkkitehtaalla käytetään puhdasta arseenitrioksidia koboltinpoiston apuaineena. Tällä hetkellä kuparielektrolyysin arseenista valmistetaan puunsuoja-aineita. Lainsäädäntö muuttuu siten että tulevaisuudessa kyseisten puunsuoja-aineiden käyttöä tullaan yhä rajoittamaan. Kun puunsuoja-aineiden kulutus vähenee, täytyy syntyvä arseeni varastoida jätealueelle ellei sille löydetä muuta käyttöä. Arseenin varastointitarve ei lisäänny jos kuparielektrolyysistä saatava arseeni voidaan hyödyntää sinkkitehtaalla. Kuparielektrolyysissä syntyvä arseenitrioksidi ei ole puhdasta. Työssä selvitettiin epäpuh-tauksien vaikutusta sinkkitehtaan liuospuhdistuksen koboltinpoistovaiheeseen. Kokeiden olosuhteet pyrittiin yhdenmukaistamaan sinkkitehtaan koboltinpoistovaiheessa vallitsevia olosuhteita vastaaviksi. Kokeissa käytetyillä arseeniliuosten eri epäpuhtaustasoilla ei havaittu olevan selkeää eroa liuospuhdistuskyvyssä. Koetulokset antavat viitteitä siitä, että koboltinpoistoprosessi on oletettua epäherkempi arseeniliuoksen epäpuhtauksien vaikutuksille. Kirjallisuudesta haettiin arseenitrioksidin valmistukseen ja puhdistamiseen liittyvää aineistoa. Valmistusmenetelminä tarkasteltiin valmistusta arseenimalmista ja kuparielektrolyytistä ja puhdistusmenetelminä uudelleenkiteytystä, jäädytys-sulatusprosessia ja ioninvaihtoa. Työssä puhdistettiin kuparielektrolyysin liuospuhdistuksessa syntyvää arseenitrioksidia. Puhdistuslaitteistosta tehtiin alustava prosessisuunnitelma.
Resumo:
Conference publication in Kalmar ECO-TECH’07. International Conference on Technologies for Waste and Wastewater Treatment, Energy from Waste, Remediation of Contaminated Sites and Emissions Related to Climate November 26-28 2007, Kalmar, Sweden.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
We all make decisions of varying levels of importance every day. Because making a decision implies that there are alternative choices to be considered, almost all decision involves some conflicts or dissatisfaction. Traditional economic models esteem that a person must weight the positive and negative outcomes of each option, and based on all these inferences, determines which option is the best for that particular situation. However, individuals rather act as irrational agents and tend to deviate from these rational choices. They somewhat evaluate the outcomes' subjective value, namely, when they face a risky choice leading to losses, people are inclined to have some preference for risk over certainty, while when facing a risky choice leading to gains, people often avoid to take risks and choose the most certain option. Yet, it is assumed that decision making is balanced between deliberative and emotional components. Distinct neural regions underpin these factors: the deliberative pathway that corresponds to executive functions, implies the activation of the prefrontal cortex, while the emotional pathway tends to activate the limbic system. These circuits appear to be altered in individuals with ADHD, and result, amongst others, in impaired decision making capacities. Their impulsive and inattentive behaviors are likely to be the cause of their irrational attitude towards risk taking. Still, a possible solution is to administrate these individuals a drug treatment, with the knowledge that it might have several side effects. However, an alternative treatment that relies on cognitive rehabilitation might be appropriate. This project was therefore aimed at investigate whether an intensive working memory training could have a spillover effect on decision making in adults with ADHD and in age-matched healthy controls. We designed a decision making task where the participants had to select an amount to gamble with the chance of 1/3 to win four times the chosen amount, while in the other cases they could loose their investment. Their performances were recorded using electroencephalography prior and after a one-month Dual N-Back training and the possible near and far transfer effects were investigated. Overall, we found that the performance during the gambling task was modulated by personality factors and by the importance of the symptoms at the pretest session. At posttest, we found that all individuals demonstrated an improvement on the Dual N-Back and on similar untrained dimensions. In addition, we discovered that not only the adults with ADHD showed a stable decrease of the symptomatology, as evaluated by the CAARS inventory, but this reduction was also detected in the control samples. In addition, Event-Related Potential (ERP) data are in favor of an change within prefrontal and parietal cortices. These results suggest that cognitive remediation can be effective in adults with ADHD, and in healthy controls. An important complement of this work would be the examination of the data in regard to the attentional networks, which could empower the fact that complex programs covering the remediation of several executive functions' dimensions is not required, a unique working memory training can be sufficient. -- Nous prenons tous chaque jour des décisions ayant des niveaux d'importance variables. Toutes les décisions ont une composante conflictuelle et d'insatisfaction, car prendre une décision implique qu'il y ait des choix alternatifs à considérer. Les modèles économiques traditionnels estiment qu'une personne doit peser les conséquences positives et négatives de chaque option et en se basant sur ces inférences, détermine quelle option est la meilleure dans une situation particulière. Cependant, les individus peuvent dévier de ces choix rationnels. Ils évaluent plutôt les valeur subjective des résultats, c'est-à-dire que lorsqu'ils sont face à un choix risqué pouvant les mener à des pertes, les gens ont tendance à avoir des préférences pour le risque à la place de la certitude, tandis que lorsqu'ils sont face à un choix risqué pouvant les conduire à un gain, ils évitent de prendre des risques et choisissent l'option la plus su^re. De nos jours, il est considéré que la prise de décision est balancée entre des composantes délibératives et émotionnelles. Ces facteurs sont sous-tendus par des régions neurales distinctes: le chemin délibératif, correspondant aux fonctions exécutives, implique l'activation du cortex préfrontal, tandis que le chemin émotionnel active le système limbique. Ces circuits semblent être dysfonctionnels chez les individus ayant un TDAH, et résulte, entre autres, en des capacités de prise de décision altérées. Leurs comportements impulsifs et inattentifs sont probablement la cause de ces attitudes irrationnelles face au risque. Cependant, une solution possible est de leur administrer un traitement médicamenteux, en prenant en compte les potentiels effets secondaires. Un traitement alternatif se reposant sur une réhabilitation cognitive pourrait être appropriée. Le but de ce projet est donc de déterminer si un entrainement intensif de la mémoire de travail peut avoir un effet sur la prise de décision chez des adultes ayant un TDAH et chez des contrôles sains du même âge. Nous avons conçu une tâche de prise de décision dans laquelle les participants devaient sélectionner un montant à jouer en ayant une chance sur trois de gagner quatre fois le montant choisi, alors que dans l'autre cas, ils pouvaient perdre leur investissement. Leurs performances ont été enregistrées en utilisant l'électroencéphalographie avant et après un entrainement d'un mois au Dual N-Back, et nous avons étudié les possibles effets de transfert. Dans l'ensemble, nous avons trouvé au pré-test que les performances au cours du jeu d'argent étaient modulées par les facteurs de personnalité, et par le degré des sympt^omes. Au post-test, nous avons non seulement trouvé que les adultes ayant un TDAH montraient une diminutions stable des symptômes, qui étaient évalués par le questionnaire du CAARS, mais que cette réduction était également perçue dans l'échantillon des contrôles. Les rsultats expérimentaux mesurés à l'aide de l'éléctroencéphalographie suggèrent un changement dans les cortex préfrontaux et pariétaux. Ces résultats suggèrent que la remédiation cognitive est efficace chez les adultes ayant un TDAH, mais produit aussi un effet chez les contrôles sains. Un complément important de ce travail pourrait examiner les données sur l'attention, qui pourraient renforcer l'idée qu'il n'est pas nécessaire d'utiliser des programmes complexes englobant la remédiation de plusieurs dimensions des fonctions exécutives, un simple entraiment de la mémoire de travail devrait suffire.
Resumo:
Työssä tutkittiin laboratorio-olosuhteissa germaniumin talteenottoa happamista hydrometallurgisista sulfaattiliuoksista käyttäen kaupallisia ioninvaihtohartseja. Germaniumin talteenottoa tutkittiin sekä tasapaino- että kolonnikokein syöttöliuoksista joiden pH oli alueella 0,8–3,0. Tutkituista hartseista parhaiten germanium voitiin erottaa käyttäen emäsmuotoista N-metyyli-D-glukamiini-tyyppistä ioninvaihtohartsia (esim. Rohm & Haasin IRA-743). Germaniumille määritettiin adsorptioisotermit tasapainokokein sekä emäs- että happomuotoisilla hartseilla. Adsorptioisotermien perusteella parhaiten germa-niumia adsorboi emäsmuotoinen IRA-743-hartsi kun liuoksen alku-pH oli tutkitun alueen korkein. Lämpötilassa 25 °C kapasiteetti oli 114 mg Ge/g. Tasapainokokein määritettiin emäsmuotoisilla hartseilla germaniumin lisäksi myös kuparia ja kobolttia sisältävillä liuoksilla Ge:n jakaantumisvakiot sekä erotustekijät Ge/Cu ja Ge/Co. Havaittiin, että IRA-743:lla alku-pH:ssa 3,0 Ge:n jakaantumisvakiot sekä erotustekijät Ge/Cu ja Ge/Co olivat selvästi suuremmat kuin muilla tutkituilla hartseilla. Arseenin, nikkelin, sinkin ja rauta(III):n adsorboitumista emäsmuotoiseen IRA-743:een tutkittiin monimetallisella liuoksella syöttöliuoksen pH:n ollessa alueella 1,4–3,6. Kokeissa havaittiin, että hartsi adsorboi hieman Ni:a ja Zn:a tasapaino-pH:n ollessa yli 5,5. Arseenia ei tutkitulla pH-alueella havaittu adsorboituvan. Lisäksi huomattiin, että rauta alkaa saostua pH:n ollessa hieman alle kolme. Kolonnikokeissa havaittiin, että emäsmuotoinen IRA-743-hartsi toimii hyvin germaniumin talteenotossa myös kolonnissa. Pelkästään germaniumia ja kobolttia sisältäneellä liuoksella hartsin dynaamiseksi kapasiteetiksi saatiin 54 mg Ge/g. Germaniumin eluointi IRA-743:sta onnistui parhaiten 0,5 M H2SO4:lla. Kolonnikokeita IRA-743:lla ajettiin myös monimetallisilla liuoksilla, mutta silloin havaittiin hartsin kapasiteetin pienenevän hartsin myrkyttymisen takia.
Resumo:
Mitochondria has an essential role in myocardial tissue homeostasis; thus deterioration in mitochondrial function eventually leads to cardiomyocyte and endothelial cell death and consequent cardiovascular dysfunction. Several chemical compounds and drugs have been known to directly or indirectly modulate cardiac mitochondrial function, which can account both for the toxicological and pharmacological properties of these substances. In many cases, toxicity problems appear only in the presence of additional cardiovascular disease conditions or develop months/years following the exposure, making the diagnosis difficult. Cardiotoxic agents affecting mitochondria include several widely used anticancer drugs [anthracyclines (Doxorubicin/Adriamycin), cisplatin, trastuzumab (Herceptin), arsenic trioxide (Trisenox), mitoxantrone (Novantrone), imatinib (Gleevec), bevacizumab (Avastin), sunitinib (Sutent), and sorafenib (Nevaxar)], antiviral compound azidothymidine (AZT, Zidovudine) and several oral antidiabetics [e.g., rosiglitazone (Avandia)]. Illicit drugs such as alcohol, cocaine, methamphetamine, ecstasy, and synthetic cannabinoids (spice, K2) may also induce mitochondria-related cardiotoxicity. Mitochondrial toxicity develops due to various mechanisms involving interference with the mitochondrial respiratory chain (e.g., uncoupling) or inhibition of the important mitochondrial enzymes (oxidative phosphorylation, Szent-Györgyi-Krebs cycle, mitochondrial DNA replication, ADP/ATP translocator). The final phase of mitochondrial dysfunction induces loss of mitochondrial membrane potential and an increase in mitochondrial oxidative/nitrative stress, eventually culminating into cell death. This review aims to discuss the mechanisms of mitochondrion-mediated cardiotoxicity of commonly used drugs and some potential cardioprotective strategies to prevent these toxicities.
Resumo:
Expression control in synthetic genetic circuitry, for example, for construction of sensitive biosensors, is hampered by the lack of DNA parts that maintain ultralow background yet achieve high output upon signal integration by the cells. Here, we demonstrate how placement of auxiliary transcription factor binding sites within a regulatable promoter context can yield an important gain in signal-to-noise output ratios from prokaryotic biosensor circuits. As a proof of principle, we use the arsenite-responsive ArsR repressor protein from Escherichia coli and its cognate operator. Additional ArsR operators placed downstream of its target promoter can act as a transcription roadblock in a distance-dependent manner and reduce background expression of downstream-placed reporter genes. We show that the transcription roadblock functions both in cognate and heterologous promoter contexts. Secondary ArsR operators placed upstream of their promoter can also improve signal-to-noise output while maintaining effector dependency. Importantly, background control can be released through the addition of micromolar concentrations of arsenite. The ArsR-operator system thus provides a flexible system for additional gene expression control, which, given the extreme sensitivity to micrograms per liter effector concentrations, could be applicable in more general contexts.
Resumo:
EU on käynnistämässä ympäristöteknologioiden verifiointijärjestelmää, jonka avulla voidaan tarjota käyttäjille ja sijoittajille riippumatonta tietoa innovatiivisten teknologioiden toimivuudesta ja suorituskyvystä ja parantaa niiden markkina-asemaa. Verifioinnilla tarkoitetaan kolmannen osapuolen suorittamaa prosessia tai mekanismia, jonka avulla tuotteen toiminta ja suorituskyky voidaan todentaa. Kansallinen ympäristöteknologioiden verifiointijärjestelmä on käytössä mm. Yhdysvalloissa ja Kanadassa. Euroopassa järjestelmä otettaneen käyttöön vuonna 2011–2012. Suomessa tehdään nykyisin noin 300 pilaantuneen maan puhdistushanketta koskevaa lupa- ja ilmoituspäätöstä vuosittain. Noin 85 prosentissa kohteista käytetään kunnostusmenetelmänä massanvaihtoa. Massanvaihto tulee ainakin toistaiseksi säilymään yleisimpänä kunnostusmenetelmänä, mutta mm. in situ -menetelmien käytön arvioidaan lisääntyvän. Tämän diplomityön tavoitteena oli arvioida voidaanko verifiointia hyödyntää pilaantuneiden maiden laadukkaan käsittelyn edistämisessä ja voiko verifiointi nopeuttaa innovatiivisten kunnostusmenetelmien markkinoillepääsyä. Aihetta tarkasteltiin mm. kahden erityyppisen pilaantuneen maan ja pohjaveden kunnostusmenetelmän, reaktiivisten seinämien (in situ) ja bitumistabiloinnin (ex situ) kautta. Pilaantuneiden maiden kunnostusmenetelmien toimivuus riippuu monista eri tekijöistä, joista osaa ei voida hallita tai mallintaa luotettavasti. Verifiointi soveltuukin parhaiten laitteiden tai PIMA-menetelmiä yksinkertaisempien puhdistusmenetelmien suorituskyvyn todentamiseen. Verifiointi saattaa kuitenkin hyvin toimia PIMA-kunnostuksen kohdalla esimerkiksi tiedollisena ohjauskeinona. Reaktiivisten seinämien ja bitumistabiloinnin verifioinnin työvaiheet ovat hyvin samankaltaiset, suurimpana erona seinämien kohdalla tulee kuvata myös kohde johon seinämä on asennettu. Reaktiivisten seinämien toiminta on riippuvaista monista ympäristötekijöistä, toisin kuin erillisellä laitteistolla suoritettavan bitumistabiloinnin. Tulosten perusteella voidaan yleistää, että verifiointi soveltuu paremmin ex situ -, kuin in situ -kunnostusmenetelmille.
Resumo:
This paper provides a review on separation methods and analytical techniques for the determination of several species of organic and inorganic arsenic in different matrices. Arsenic is an element whose speciation is of particular interest due to the great variation of toxicity levels exhibited for its different chemical forms. Arsenic (III) and As (V) are the most toxic species while organic compounds such as arsenobetaine (AsB), produced by methylation of inorganics species (carcinogenics) are relatively less toxic, hence the great importance of arsenic speciation in the determination of the degree of contamination of an environmental or biological system.
Resumo:
The toxic character of organochloride compounds, their habitual presence in many industrial effluents, and mainly the low efficiency of the current remediation processes, are important aspects that have been promoted to study new degrading technologies. Among the great number of new physical and chemical alternatives, the photochemical and electrochemical processes have been played an important role, mainly due to their high degradation capacity through relatively low-cost procedures. In these contexts biological processes, the use of white-rot fungi, or even ligninolytic enzymes produced from them, are also very promising alternatives. However, the necessity of long reaction time and the high cost of the enzyme production process are some of the drawbacks that difficult the definitive consolidation of these processes.
Resumo:
Polychlorinated biphenyls (PCBs) are a class of 209 chemical compounds with the molecular formula C12H10-nCl n, where 1 <= n <= 10. They were commercially produced as complex mixtures for various uses, being employed principally as dielectric fluids in capacitors and transformers. They are not easily degraded due their chemical and physical stability and tend to bioaccumulate in the organisms. After the discovery of their xenobiotic activity, restrictions were imposed for their use, as well as for their discards. Nowadays the development of recovery processes for contaminated environment urges to be done due to the extension of reached areas.
Resumo:
Textile effluents, when not correctly treated, cause a high impact to the environment. The main recalcitrant compounds present in textile effluent are represented by the synthetic dyes, used during the fibber dying process. Among others, the azo dyes are considered the most harmful due to its mutagenic and carcinogenic character. In the present work we reported a revision study on the new tendencies for remediation of textile effluents, mainly to degrade the recalcitrant compounds. For this purpose, chemical, physical, photochemical, biological and combined processes were investigated.
Resumo:
An ominous suspicion arose in France in the second half of the 18th century, that household tin objects might be contaminated with arsenic. Charged with the task of studying and deciding the question, the chemists Pierre Bayen and Louis Charlard set up a comprehensive research project, which resulted in a book describing the whole enterprise. It is very gratifying to analyse this work today, for the many lights it sheds on the way chemistry was practised and reasoned at the time, and for the whiff of modernity we are presented with.
Resumo:
The toxicity of the major As species present in the environment justifies the effort for quantifying the element in environmental organic samples, which can vary from animal and vegetal tissues to coal and industrial residues. This paper comments about the applicability of the O2 bomb digestion, as a general procedure for all environmental organic materials. A rapid and straightforward method is suggested, which consists in burning the sample in the bomb at high O2 pressure, dissolving the vapours in diluted HNO3 and determining As in the resulting solution by atomic absorption spectrometry with electrothermal atomization. The method was applied to certified materials and plant samples.
Resumo:
This paper provides a review on voltammetric and polarographic methods for the speciation analysis of inorganic and organic arsenic compounds in different matrices. A discussion on the main advantages of electroanalytical methods in comparison with other analytical methods employed for arsenic speciation is presented. The mechanistic aspects of the most relevant techniques employing cathodic and anodic stripping voltammetry as well as polarographic methods published in the last twenty five years are summarized and discussed. The bibliographic references cited in this work were selected from the Web of Science (published by the ISI) and the main journals of analytical chemistry.