958 resultados para Iron foundries Production control Data processing


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cloud computing offers massive scalability and elasticity required by many scien-tific and commercial applications. Combining the computational and data handling capabilities of clouds with parallel processing also has the potential to tackle Big Data problems efficiently. Science gateway frameworks and workflow systems enable application developers to implement complex applications and make these available for end-users via simple graphical user interfaces. The integration of such frameworks with Big Data processing tools on the cloud opens new oppor-tunities for application developers. This paper investigates how workflow sys-tems and science gateways can be extended with Big Data processing capabilities. A generic approach based on infrastructure aware workflows is suggested and a proof of concept is implemented based on the WS-PGRADE/gUSE science gateway framework and its integration with the Hadoop parallel data processing solution based on the MapReduce paradigm in the cloud. The provided analysis demonstrates that the methods described to integrate Big Data processing with workflows and science gateways work well in different cloud infrastructures and application scenarios, and can be used to create massively parallel applications for scientific analysis of Big Data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper is based on the novel use of a very high fidelity decimation filter chain for Electrocardiogram (ECG) signal acquisition and data conversion. The multiplier-free and multi-stage structure of the proposed filters lower the power dissipation while minimizing the circuit area which are crucial design constraints to the wireless noninvasive wearable health monitoring products due to the scarce operational resources in their electronic implementation. The decimation ratio of the presented filter is 128, working in tandem with a 1-bit 3rd order Sigma Delta (ΣΔ) modulator which achieves 0.04 dB passband ripples and -74 dB stopband attenuation. The work reported here investigates the non-linear phase effects of the proposed decimation filters on the ECG signal by carrying out a comparative study after phase correction. It concludes that the enhanced phase linearity is not crucial for ECG acquisition and data conversion applications since the signal distortion of the acquired signal, due to phase non-linearity, is insignificant for both original and phase compensated filters. To the best of the authors’ knowledge, being free of signal distortion is essential as this might lead to misdiagnosis as stated in the state of the art. This article demonstrates that with their minimal power consumption and minimal signal distortion features, the proposed decimation filters can effectively be employed in biosignal data processing units.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper is part of a special issue of Applied Geochemistry focusing on reliable applications of compositional multivariate statistical methods. This study outlines the application of compositional data analysis (CoDa) to calibration of geochemical data and multivariate statistical modelling of geochemistry and grain-size data from a set of Holocene sedimentary cores from the Ganges-Brahmaputra (G-B) delta. Over the last two decades, understanding near-continuous records of sedimentary sequences has required the use of core-scanning X-ray fluorescence (XRF) spectrometry, for both terrestrial and marine sedimentary sequences. Initial XRF data are generally unusable in ‘raw-format’, requiring data processing in order to remove instrument bias, as well as informed sequence interpretation. The applicability of these conventional calibration equations to core-scanning XRF data are further limited by the constraints posed by unknown measurement geometry and specimen homogeneity, as well as matrix effects. Log-ratio based calibration schemes have been developed and applied to clastic sedimentary sequences focusing mainly on energy dispersive-XRF (ED-XRF) core-scanning. This study has applied high resolution core-scanning XRF to Holocene sedimentary sequences from the tidal-dominated Indian Sundarbans, (Ganges-Brahmaputra delta plain). The Log-Ratio Calibration Equation (LRCE) was applied to a sub-set of core-scan and conventional ED-XRF data to quantify elemental composition. This provides a robust calibration scheme using reduced major axis regression of log-ratio transformed geochemical data. Through partial least squares (PLS) modelling of geochemical and grain-size data, it is possible to derive robust proxy information for the Sundarbans depositional environment. The application of these techniques to Holocene sedimentary data offers an improved methodological framework for unravelling Holocene sedimentation patterns.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der Zugang zu Datenbanken über die universelle Abfragesprache SQL stellt für Nicht-Spezialisten eine große Herausforderung dar. Als eine benutzerfreundliche Alternative wurden daher seit den 1970er-Jahren unterschiedliche visuelle Abfragesprachen (Visual Query Languages, kurz VQLs) für klassische PCs erforscht. Ziel der vorliegenden Arbeit ist es, eine generische VQL zu entwickeln und zu erproben, die eine gestenbasierte Exploration von Datenbanken auf Schema- und Instanzdatenebene für mobile Endgeräte, insbesondere Tablets, ermöglicht. Dafür werden verschiedene Darstellungsformen, Abfragestrategien und visuelle Hints für Fremdschlüsselbeziehungen untersucht, die den Benutzer bei der Navigation durch die Daten unterstützen. Im Rahmen einer Anforderungsanalyse erwies sich die Visualisierung der Daten und Beziehungen mittels einer platzsparenden geschachtelten NF2-Darstellung als besonders vorteilhaft. Zur Steuerung der Datenbankexploration wird eine geeignete Gestensprache, bestehend aus Stroke-, Multitouch- und Mid-Air-Gesten, vorgestellt. Das Gesamtkonzept aus Darstellung und Gestensteuerung wurde anhand des im Rahmen dieser Arbeit entwickelten GBXT-Prototyps auf seine reale Umsetzbarkeit hin, als plattformunabhängige Single-Page-Application für verschiedene mobile Endgeräte mittels JavaScript und HTML5/CSS3 untersucht.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-08

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent advances in the massively parallel computational abilities of graphical processing units (GPUs) have increased their use for general purpose computation, as companies look to take advantage of big data processing techniques. This has given rise to the potential for malicious software targeting GPUs, which is of interest to forensic investigators examining the operation of software. The ability to carry out reverse-engineering of software is of great importance within the security and forensics elds, particularly when investigating malicious software or carrying out forensic analysis following a successful security breach. Due to the complexity of the Nvidia CUDA (Compute Uni ed Device Architecture) framework, it is not clear how best to approach the reverse engineering of a piece of CUDA software. We carry out a review of the di erent binary output formats which may be encountered from the CUDA compiler, and their implications on reverse engineering. We then demonstrate the process of carrying out disassembly of an example CUDA application, to establish the various techniques available to forensic investigators carrying out black-box disassembly and reverse engineering of CUDA binaries. We show that the Nvidia compiler, using default settings, leaks useful information. Finally, we demonstrate techniques to better protect intellectual property in CUDA algorithm implementations from reverse engineering.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As escolas portuguesas do ensino não superior estão dotadas com infraestruturas e equipamentos que permitem trazer o mundo para dentro da sala de aula, tornando o processo de ensino e de aprendizagem mais rico e motivador para os alunos. A adoção institucional de uma plataforma que segue os princípios da web social, o SAPO Campus (SC), definida pela abertura, partilha, integração, inovação e personalização, pode ser catalisadora de processos de mudança e inovação. O presente estudo teve como finalidade acompanhar o processo de adoção do SC em cinco escolas, bem como analisar o impacto no processo de ensino e de aprendizagem e a forma como os alunos e professores se relacionam com esta tecnologia. As escolas envolvidas foram divididas em dois grupos: o primeiro grupo, constituído por três escolas onde o acompanhamento teve uma natureza mais interventiva e presente, enquanto que no segundo grupo, composto por duas escolas, foram apenas observadas as dinâmicas que se desenvolveram no processo de adoção e utilização do SC. No presente estudo, que se assume como um estudo longitudinal de multicasos, foram aplicadas técnicas de tratamento de dados como a estatística descritiva, a análise de conteúdo e a Social Network Analysis (SNA), com o objetivo de, através de uma triangulação permanente, proceder a uma análise dos impactos observados pela utilização do SC. Estes impactos podem ser situados em três níveis diferentes: relativos à instituição, aos professores e aos alunos. Ao nível da adoção institucional de uma tecnologia, verificou-se que essa adoção passa uma mensagem a toda a organização e que, no caso do SC, apela à participação coletiva num ambiente aberto onde as hierarquias se dissipam. Verificou-se ainda que deve implicar o envolvimento dos alunos em atividades significativas e a adoção de estratégias dinâmicas, preferencialmente integradas num projeto mobilizador. A adoção do SC foi ainda catalisadora de dinâmicas que provocaram mudanças nos padrões de consumo e de produção de conteúdos bem como de uma atitude diferente perante o papel da web social no processo de ensino e aprendizagem. As conclusões apontam ainda no sentido da identificação de um conjunto de fatores, observados no estudo, que tiveram impacto no processo de adoção como o papel das lideranças, a importância da formação de professores, a cultura das escolas, a integração num projeto pedagógico e, a um nível mais primário, as questões do acesso à tecnologia. Algumas comunidades construídas à volta do SAPO Campus, envolvendo professores, alunos e a comunidade, evoluíram no sentido da autossustentação, num percurso de reflexão sobre as práticas pedagógicas e partilha de experiências.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A crescente urbanização global tem como consequência o aumento dos níveis de poluentes na atmosfera e a respetiva deterioração da qualidade do ar. O controlo da poluição atmosférica e monitorização da qualidade do ar são passos fundamentais para implementar estratégias de redução e estimular a consciência ambiental dos cidadãos. Com este intuito, existem várias técnicas e tecnologias que podem ser usadas para monitorizar a qualidade do ar. A utilização de microsensores surge como uma ferramenta inovadora para a monitorização da qualidade do ar. E, apesar dos desempenhos dos microsensores permitirem uma nova estratégia, resultando em respostas rápidas, baixos custos operacionais e eficiências elevadas, que não podem ser alcançados apenas com abordagens convencionais, ainda é necessário aprofundar o conhecimento a fim de integrar estas novas tecnologias, particularmente quanto à verificação do desempenho dos sensores comparativamente aos métodos de referência em campanhas experimentais. Esta dissertação, desenvolvida no Instituto do Ambidente e Desenvolvimento em forma de estágio, teve como objetivo a avaliação do desempenho de sensores de baixo custo comparativamente com os métodos de referência, tendo como base uma campanha de monitorização da qualidade do ar realizada no centro de Aveiro durante 2 semanas de outubro de 2014. De forma mais específica pretende-se perceber até que ponto se podem utilizar sensores de baixo custo que cumpram os requisitos especificados na legislação e as especificidades das normas, estabelecendo assim um protocolo de avaliação de microsensores. O trabalho realizado passou ainda pela caracterização da qualidade do ar no centro de Aveiro para o período da campanha de monitorização. A aplicação de microsensores eletroquímicos, MOS e OPC em paralelo com equipamento de referência neste estudo de campo permitiu avaliar a fiabilidade e a incerteza destas novas tecnologias de monitorização. Com este trabalho verificou-se que os microsensores eletroquímicos são mais precisos comparativamente aos microsensores baseados em óxidos metálicos, apresentando correlações fortes com os métodos de referência para diversos poluentes. Por sua vez, os resultados obtidos pelos contadores óticos de partículas foram satisfatórios, contudo poderiam ser melhorados quer pelo modo de amostragem, quer pelo método de tratamento de dados aplicado. Idealmente, os microsensores deveriam apresentar fortes correlações com o método de referência e elevada eficiência de recolha de dados. No entanto, foram identificados alguns problemas na eficiência de recolha de dados dos sensores que podem estar relacionados com a humidade relativa e temperaturas elevadas durante a campanha, falhas de comunicação intermitentes e, também, a instabilidade e reatividade causada por gases interferentes. Quando as limitações das tecnologias de sensores forem superadas e os procedimentos adequados de garantia e controlo de qualidade possam ser cumpridos, os sensores de baixo custo têm um grande potencial para permitir a monitorização da qualidade do ar com uma elevada cobertura espacial, sendo principalmente benéfico em áreas urbanas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A crescente urbanização global tem como consequência o aumento dos níveis de poluentes na atmosfera e a respetiva deterioração da qualidade do ar. O controlo da poluição atmosférica e monitorização da qualidade do ar são passos fundamentais para implementar estratégias de redução e estimular a consciência ambiental dos cidadãos. Com este intuito, existem várias técnicas e tecnologias que podem ser usadas para monitorizar a qualidade do ar. A utilização de microsensores surge como uma ferramenta inovadora para a monitorização da qualidade do ar. E, apesar dos desempenhos dos microsensores permitirem uma nova estratégia, resultando em respostas rápidas, baixos custos operacionais e eficiências elevadas, que não podem ser alcançados apenas com abordagens convencionais, ainda é necessário aprofundar o conhecimento a fim de integrar estas novas tecnologias, particularmente quanto à verificação do desempenho dos sensores comparativamente aos métodos de referência em campanhas experimentais. Esta dissertação, desenvolvida no Instituto do Ambidente e Desenvolvimento em forma de estágio, teve como objetivo a avaliação do desempenho de sensores de baixo custo comparativamente com os métodos de referência, tendo como base uma campanha de monitorização da qualidade do ar realizada no centro de Aveiro durante 2 semanas de outubro de 2014. De forma mais específica pretende-se perceber até que ponto se podem utilizar sensores de baixo custo que cumpram os requisitos especificados na legislação e as especificidades das normas, estabelecendo assim um protocolo de avaliação de microsensores. O trabalho realizado passou ainda pela caracterização da qualidade do ar no centro de Aveiro para o período da campanha de monitorização. A aplicação de microsensores eletroquímicos, MOS e OPC em paralelo com equipamento de referência neste estudo de campo permitiu avaliar a fiabilidade e a incerteza destas novas tecnologias de monitorização. Com este trabalho verificou-se que os microsensores eletroquímicos são mais precisos comparativamente aos microsensores baseados em óxidos metálicos, apresentando correlações fortes com os métodos de referência para diversos poluentes. Por sua vez, os resultados obtidos pelos contadores óticos de partículas foram satisfatórios, contudo poderiam ser melhorados quer pelo modo de amostragem, quer pelo método de tratamento de dados aplicado. Idealmente, os microsensores deveriam apresentar fortes correlações com o método de referência e elevada eficiência de recolha de dados. No entanto, foram identificados alguns problemas na eficiência de recolha de dados dos sensores que podem estar relacionados com a humidade relativa e temperaturas elevadas durante a campanha, falhas de comunicação intermitentes e, também, a instabilidade e reatividade causada por gases interferentes. Quando as limitações das tecnologias de sensores forem superadas e os procedimentos adequados de garantia e controlo de qualidade possam ser cumpridos, os sensores de baixo custo têm um grande potencial para permitir a monitorização da qualidade do ar com uma elevada cobertura espacial, sendo principalmente benéfico em áreas urbanas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesta tese procurou-se demonstrar a valoração do efluente do processamento de pescado por incorporação dos nutrientes em Aphanothece microscopica Nägeli a diferentes temperaturas. Para tanto o trabalho é composto de cinco artigos que objetivaram avaliar sob o ponto de vista do tratamento do efluente pela cianobactéria Aphanothece e a separação e avaliação da biomassa gerada. O primeiro artigo intitula-se “Influência da temperatura na remoção de nutrientes do efluente da indústria de pescado por Aphanothece microscopica Nägeli”, e teve por objetivo avaliar a influência da temperatura (10, 20 e 30ºC) em um sistema de tratamento pela cianobactéria Aphanothece na remoção de matéria orgânica, nitrogênio e fósforo do efluente oriundo do processamento de pescado. A análise dos resultados mostrou que a temperatura influenciou significativamente na remoção de DQO, NTK, N-NH4 + e P-PO4 -3 . Para os experimentos a 20 e 30ºC todos os limites estabelecidos para os parâmetros avaliados foram atingidos. O segundo artigo intitulado “Efeito de coagulantes no efluente da indústria da pesca visando à separação de biomassa quando tratado por cianobactéria” avaliou o efeito da concentração e pH de dois tipos de coagulantes, cloreto férrico (FeCl3) e sulfato de alumínio (Al2(SO4)3), na separação da biomassa da cianobactéria Aphanothece microscopica Nägeli cultivada em efluente da indústria da pesca, assim como a remoção de matéria orgânica e nutrientes do efluente. Os resultados indicaram que o coagulante FeCl3 foi mais eficaz na remoção de todos os parâmetros testados. No que concerne à separação da biomassa, com um número de seis lavagens foi removido cerca de 97,6% da concentração de FeCl3 adicionado inicialmente. O terceiro artigo com o título “Caracterização da biomassa de Aphanothece microscopica Nägeli gerada no efluente da indústria da pesca em diferentes temperaturas de cultivo” avaliou a composição química da biomassa da cianobactéria Aphanothece microscopica Nägeli quando desenvolvida em meio de cultivo padrão BG11 e no efluente do processamento de pescado. O quarto artigo teve como título “Influência do meio de cultivo e temperatura em compostos nitrogenados na cianobactéria Aphanothece microscopica Nägeli” objetivou avaliar o teor de compostos nitrogenados presentes na biomassa da cianobactéria Aphanothece microscopica Nägeli quando cultivada em meio padrão e no efluente da indústria da pesca nas diferentes fases de crescimento. Para o estudo da composição química e nitrogenados no efluente foram realizados experimentos nas temperaturas de 10, 20 e 30ºC. As concentrações de proteína, cinzas e pigmentos aumentaram com o aumento da temperatura. Por outro lado, foi observada uma redução do teor de lipídios e carboidratos com o aumento da temperatura. O íon amônio juntamente com os ácidos nucléicos representa uma importante fração do nitrogênio não protéico presente na biomassa da cianobactéria Aphanothece. Ficou demonstrada a influência do meio de cultivo na concentração de nitrogênio, bem como a determinação de proteína pelo método de Kjeldahl superestima a concentração protéica em cianobactérias. O quinto artigo intitulado “Produção de proteína unicelular a partir do efluente do processamento do pescado: modelagem preditiva e simulação” avaliou a produção de proteína unicelular através do cultivo da cianobactéria Aphanothece microscopica Nägeli no efluente da indústria da pesca. Os dados cinéticos de crescimento celular foram ajustados a quatro modelos matemáticos (Logístico, Gompertz, Gompertz Modificado e Baranyi). Os resultados demonstraram que o modelo Logístico foi considerado o mais adequado para descrever a formação de biomassa. A análise preditiva mostrou a possibilidade da obtenção de 1,66, 18,96 e 57,36 kg.m-3.d-1 de biomassa por volume do reator em 1000 h de processo contínuo, para as temperaturas de 10, 20 e 30ºC, respectivamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The production and perception of music is a multimodal activity involving auditory, visual and conceptual processing, integrating these with prior knowledge and environmental experience. Musicians utilise expressive physical nuances to highlight salient features of the score. The question arises within the literature as to whether performers’ non-technical, non-sound-producing movements may be communicatively meaningful and convey important structural information to audience members and co-performers. In the light of previous performance research (Vines et al., 2006, Wanderley, 2002, Davidson, 1993), and considering findings within co-speech gestural research and auditory and audio-visual neuroscience, this thesis examines the nature of those movements not directly necessary for the production of sound, and their particular influence on audience perception. Within the current research 3D performance analysis is conducted using the Vicon 12- camera system and Nexus data-processing software. Performance gestures are identified as repeated patterns of motion relating to music structure, which not only express phrasing and structural hierarchy but are consistently and accurately interpreted as such by a perceiving audience. Gestural characteristics are analysed across performers and performance style using two Chopin preludes selected for their diverse yet comparable structures (Opus 28:7 and 6). Effects on perceptual judgements of presentation modes (visual-only, auditory-only, audiovisual, full- and point-light) and viewing conditions are explored. This thesis argues that while performance style is highly idiosyncratic, piano performers reliably generate structural gestures through repeated patterns of upper-body movement. The shapes and locations of phrasing motions are identified particular to the sample of performers investigated. Findings demonstrate that despite the personalised nature of the gestures, performers use increased velocity of movements to emphasise musical structure and that observers accurately and consistently locate phrasing junctures where these patterns and variation in motion magnitude, shape and velocity occur. By viewing performance motions in polar (spherical) rather than cartesian coordinate space it is possible to get mathematically closer to the movement generated by each of the nine performers, revealing distinct patterns of motion relating to phrasing structures, regardless of intended performance style. These patterns are highly individualised both to each performer and performed piece. Instantaneous velocity analysis indicates a right-directed bias of performance motion variation at salient structural features within individual performances. Perceptual analyses demonstrate that audience members are able to accurately and effectively detect phrasing structure from performance motion alone. This ability persists even for degraded point-light performances, where all extraneous environmental information has been removed. The relative contributions of audio, visual and audiovisual judgements demonstrate that the visual component of a performance does positively impact on the over- all accuracy of phrasing judgements, indicating that receivers are most effective in their recognition of structural segmentations when they can both see and hear a performance. Observers appear to make use of a rapid online judgement heuristics, adjusting response processes quickly to adapt and perform accurately across multiple modes of presentation and performance style. In line with existent theories within the literature, it is proposed that this processing ability may be related to cognitive and perceptual interpretation of syntax within gestural communication during social interaction and speech. Findings of this research may have future impact on performance pedagogy, computational analysis and performance research, as well as potentially influencing future investigations of the cognitive aspects of musical and gestural understanding.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el fin de aminorar retrasos por descementación de cualquier accesorio durante el tratamiento de Ortodoncia Lingual, se ha considerado que la fuerza de adhesión es muy importante, especialmente cuando está ubicada en las diferentes interfaces presentes entre el bracket y la resina del PAD; entre la resina del PAD y el cemento resinoso fotopolimerizable y entre este cemento y el esmalte dental. Por lo que este estudio se ha enfocado en determinar la resistencia adhesiva en la interfaz localizada entre la resina de la base del PAD y el cemento resinoso fotopolimerizable utilizando ácido fluorhídrico y óxido de aluminio como tratamiento de superficie previo a la cementación indirecta de la técnica lingual. MATERIALES Y METODOS: El tipo de estudio fue experimental "in vitro", con una muestra de 30 cuerpos de prueba hechos con resina Transbond XT, utilizando para su confección un blíster de brackets, se siguieron tres protocolos diferentes; G1 o grupo control sin ninguna preparación, G2 con aplicación de óxido de aluminio, 50 micrones durante 10 segundos en la superficie del cuerpo de prueba, G3 con aplicación de ácido fluorhídrico al 9% en la superficie del cuerpo de prueba durante 10 minutos. Previo al test de resistencia adhesiva, se realizó los cortes de precisión en cada cuerpo de prueba, obteniendo así 45 tiras de prueba, cada una de las muestras fue adherida a un porta muestra para la prueba de micro tracción, la misma que fue realizada con la máquina universal Mini-Instron modelo 5942, a una velocidad de deformación constante de 0.5 mm/min. Los datos fueron sometidos al test de Normalidad de residuos de Shapiro Wilk (p>0,05) y de LEVENE para el análisis de homogeneidad de las varianzas. La resistencia adhesiva fue comparada entre los grupos por medio del Análisis de Varianza (ANOVA) como factor único para el procesamiento de los datos. Para todos los análisis el nivel de significancia fue del 5% (p< 0,05) con un nivel de confianza del 95% (IC95%). Se consideró estadísticamente significativo valores por debajo de 0,05. RESULTADOS Y CONCLUSIONES: El resultado del test de ANOVA, reveló que el factor de tratamiento de superficie F(2,12)=2,52;p=0,12 no es significante, por lo tanto los diferentes tratamientos de superficie (óxido de aluminio y ácido fluorhídrico) utilizados son equivalentes al grupo control, indicando que no ejercen influencia de manera significativa en los valores de Resistencia Adhesiva (RA) en la preparación de la interfaz localizada entre la resina de la base del PAD y el cemento resinoso fotopolimerizable; concluyendo que se puede utilizar cualquier protocolo de tratamiento de superficie indicado en la presente investigación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The only method used to date to measure dissolved nitrate concentration (NITRATE) with sensors mounted on profiling floats is based on the absorption of light at ultraviolet wavelengths by nitrate ion (Johnson and Coletti, 2002; Johnson et al., 2010; 2013; D’Ortenzio et al., 2012). Nitrate has a modest UV absorption band with a peak near 210 nm, which overlaps with the stronger absorption band of bromide, which has a peak near 200 nm. In addition, there is a much weaker absorption due to dissolved organic matter and light scattering by particles (Ogura and Hanya, 1966). The UV spectrum thus consists of three components, bromide, nitrate and a background due to organics and particles. The background also includes thermal effects on the instrument and slow drift. All of these latter effects (organics, particles, thermal effects and drift) tend to be smooth spectra that combine to form an absorption spectrum that is linear in wavelength over relatively short wavelength spans. If the light absorption spectrum is measured in the wavelength range around 217 to 240 nm (the exact range is a bit of a decision by the operator), then the nitrate concentration can be determined. Two different instruments based on the same optical principles are in use for this purpose. The In Situ Ultraviolet Spectrophotometer (ISUS) built at MBARI or at Satlantic has been mounted inside the pressure hull of a Teledyne/Webb Research APEX and NKE Provor profiling floats and the optics penetrate through the upper end cap into the water. The Satlantic Submersible Ultraviolet Nitrate Analyzer (SUNA) is placed on the outside of APEX, Provor, and Navis profiling floats in its own pressure housing and is connected to the float through an underwater cable that provides power and communications. Power, communications between the float controller and the sensor, and data processing requirements are essentially the same for both ISUS and SUNA. There are several possible algorithms that can be used for the deconvolution of nitrate concentration from the observed UV absorption spectrum (Johnson and Coletti, 2002; Arai et al., 2008; Sakamoto et al., 2009; Zielinski et al., 2011). In addition, the default algorithm that is available in Satlantic sensors is a proprietary approach, but this is not generally used on profiling floats. There are some tradeoffs in every approach. To date almost all nitrate sensors on profiling floats have used the Temperature Compensated Salinity Subtracted (TCSS) algorithm developed by Sakamoto et al. (2009), and this document focuses on that method. It is likely that there will be further algorithm development and it is necessary that the data systems clearly identify the algorithm that is used. It is also desirable that the data system allow for recalculation of prior data sets using new algorithms. To accomplish this, the float must report not just the computed nitrate, but the observed light intensity. Then, the rule to obtain only one NITRATE parameter is, if the spectrum is present then, the NITRATE should be recalculated from the spectrum while the computation of nitrate concentration can also generate useful diagnostics of data quality.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The CATARINA Leg1 cruise was carried out from June 22 to July 24 2012 on board the B/O Sarmiento de Gamboa, under the scientific supervision of Aida Rios (CSIC-IIM). It included the occurrence of the OVIDE hydrological section that was performed in June 2002, 2004, 2006, 2008 and 2010, as part of the CLIVAR program (name A25) ), and under the supervision of Herlé Mercier (CNRSLPO). This section begins near Lisbon (Portugal), runs through the West European Basin and the Iceland Basin, crosses the Reykjanes Ridge (300 miles north of Charlie-Gibbs Fracture Zone, and ends at Cape Hoppe (southeast tip of Greenland). The objective of this repeated hydrological section is to monitor the variability of water mass properties and main current transports in the basin, complementing the international observation array relevant for climate studies. In addition, the Labrador Sea was partly sampled (stations 101-108) between Greenland and Newfoundland, but heavy weather conditions prevented the achievement of the section south of 53°40’N. The quality of CTD data is essential to reach the first objective of the CATARINA project, i.e. to quantify the Meridional Overturning Circulation and water mass ventilation changes and their effect on the changes in the anthropogenic carbon ocean uptake and storage capacity. The CATARINA project was mainly funded by the Spanish Ministry of Sciences and Innovation and co-funded by the Fondo Europeo de Desarrollo Regional. The hydrological OVIDE section includes 95 surface-bottom stations from coast to coast, collecting profiles of temperature, salinity, oxygen and currents, spaced by 2 to 25 Nm depending on the steepness of the topography. The position of the stations closely follows that of OVIDE 2002. In addition, 8 stations were carried out in the Labrador Sea. From the 24 bottles closed at various depth at each stations, samples of sea water are used for salinity and oxygen calibration, and for measurements of biogeochemical components that are not reported here. The data were acquired with a Seabird CTD (SBE911+) and an SBE43 for the dissolved oxygen, belonging to the Spanish UTM group. The software SBE data processing was used after decoding and cleaning the raw data. Then, the LPO matlab toolbox was used to calibrate and bin the data as it was done for the previous OVIDE cruises, using on the one hand pre and post-cruise calibration results for the pressure and temperature sensors (done at Ifremer) and on the other hand the water samples of the 24 bottles of the rosette at each station for the salinity and dissolved oxygen data. A final accuracy of 0.002°C, 0.002 psu and 0.04 ml/l (2.3 umol/kg) was obtained on final profiles of temperature, salinity and dissolved oxygen, compatible with international requirements issued from the WOCE program.

Relevância:

100.00% 100.00%

Publicador: