930 resultados para post-processing
Resumo:
Existen en el mercado numerosas aplicaciones para la generación de reverberación y para la medición de respuestas al impulso acústicas. Sin embargo, éstas son de precios muy elevados y/o no se permite acceder a su código y, mucho menos, distribuir de forma totalmente libre. Además, las herramientas que ofrecen para la medición de respuestas al impulso requieren de un tedioso proceso para la generación de la señal de excitación, su reproducción y grabación y, finalmente, su post-procesado. Este procedimiento puede llevar en ocasiones al usuario a cometer errores debido a la falta de conocimientos técnicos. El propósito de este proyecto es dar solución a algunos de los inconvenientes planteados. Con tal fin se llevó a cabo el desarrollo e implementación de un módulo de reverberación por convolución particionada en tiempo real, haciendo uso de software gratuito y de libre distribución. En concreto, se eligió la estación digital de trabajo (DAW. Digital Audio Worksation) REAPER de la compañía Cockos. Además de incluir las funcionalidades básicas de edición y secuenciación presentes en cualquier DAW, el programa incluye un entorno para la implementación de efectos de audio en lenguaje JS (Jesusonic), y se distribuye con licencias completamente gratuitas y sin limitaciones de uso. Complementariamente, se propone una extensión para REAPER que permite la medición de respuestas al impulso de recintos acústicos de una forma completamente automatizada y amigable para el usuario. Estas respuestas podrán ser almacenadas y posteriormente cargadas en el módulo de reverberación, permitiendo aplicar sobre nuestras pistas de audio la respuesta acústica de cualquier recinto en el que se hayan realizado medidas. La implementación del sistema de medida de respuestas se llevó a cabo empleando la herramienta ReaScript de REAPER, que permite la ejecución de pequeños scripts Python. El programa genera un Barrido Sinusoidal Logarítmico que excita el recinto acústico cuya respuesta se desea medir, grabando la misma en un archivo .wav. Este procedimiento es sencillo, intuitivo y está al alcance de cualquier usuario doméstico, ya que no requiere la utilización de sofisticado instrumental de medida. ABSTRACT. There are numerous applications in the market for the generation of reverb and measurement of acoustic impulse responses. However, they are usually very costly and closed source. In addition, the provided tools for measuring impulse responses require tedious processes for the generation and reproduction of the excitation signal, the recording of the response and its final post-processing. This procedure can sometimes drive the user to make mistakes due to the lack of technical knowledge. The purpose of this project is to solve some of the mentioned problems. To that end we developed and implemented a real-time partitioned convolution reverb module using free open source software. Specifically, the chosen software was the Cockos’ digital audio workstation (DAW) REAPER. In addition to the basic features included in any DAW, such as editing and sequencing, the program includes an environment for implementing audio effects in JS (Jesusonic) language of free distribution and features an unrestricted license. As an extension for REAPER, we propose a fully automated and user-friendly method for measuring rooms’ acoustic impulse responses. These will be stored and then loaded into the reverb module, allowing the user to apply the acoustical response of any room where measurement have been taken to any audio track. The implementation of the impulse response measurement system was done using REAPER’s ReaScript tool that allows the execution of small Python scripts. The program generates a logarithmic sine sweep that excites the room and its response is recorded in a .wav file. This procedure is simple, intuitive and it is accessible to any home user as it does not require the use of sophisticated measuring equipment.
Resumo:
A grande prevalência do consumo de álcool por mulheres em idade reprodutiva aliada à gravidez não planejada expõe a gestante a um elevado risco de se alcoolizar em algum momento da gestação, principalmente no início do período gestacional em que a maioria delas ainda não tomou ciência do fato. Assim, torna-se extremamente relevante o desenvolvimento de métodos de detecção precoce de recém-nascidos em risco de desenvolvimento de problemas do espectro dos transtornos relacionados à exposição fetal ao álcool. O objetivo desse estudo foi desenvolver, validar e avaliar a eficácia de um método de quantificação de ésteres etílicos de ácidos graxos (FAEEs) no mecônio de recém-nascidos para avaliação da exposição fetal ao álcool. Os FAEEs avaliados foram: palmitato de etila, estearato de etila, oleato de etila e linoleato de etila.O método consistiu no preparo das amostras pela extração líquido-líquido utilizando água, acetona e hexano, seguida de extração em fase sólida empregando cartuchos de aminopropilsilica. A separação e quantificação dos analitos foi realizada por cromatografia em fase gasosa acoplada à espectrometria de massas. Os limites de quantificação (LQ) variaram entre 50-100ng/g. A curva de calibração foi linear de LQ até 2000ng/g para todos os analitos. A recuperação variou de 69,79% a 106,57%. Os analitos demonstraram estabilidade no ensaio de pós-processamento e em solução. O método foi aplicado em amostras de mecônio de 160 recém-nascidos recrutados em uma maternidade pública de Ribeirão Preto-SP. O consumo de álcool materno foi reportado utilizando questionários de rastreamento validados T-ACE e AUDIT e relatos retrospectivos da quantidade e frequência de álcool consumida ao longo da gestação. A eficácia do método analítico em identificar os casos positivos foi determinada pela curva Receiver Operating Characteristic (ROC). O consumo alcoólico de risco foi identificado pelo T-ACE em 31,3% das participantes e 50% reportaram o uso de álcool durante a gestação. 51,3% dos recém-nascidos apresentaram FAEEs em seu mecônio, sendo que 33,1% apresentaram altas concentrações para a somatória dos FAEEs (maior que 500ng/g), compatível com um consumo abusivo de álcool. O oleato de etila foi o biomarcador mais prevalente e o linoleato de etila foi o biomarcador que apresentou as maiores concentrações. Houve uma variabilidade no perfil de distribuição dos FAEEs entre os indivíduos, e discordâncias entre a presença de FAEEs e o consumo reportado pela mãe. A concentração total dos FAEEs nos mecônio mostrou-se como melhor indicador da exposição fetal ao álcool quando comparado com o uso de um único biomarcador. O ponto de corte para esta população foi de aproximadamente 600ng/g para uso tipo binge (três ou mais doses por ocasião) com sensibilidade de 71,43% e especificidade de 84,37%. Este estudo reforça a importância da utilização de métodos laboratoriais na identificação da exposição fetal ao álcool.
Resumo:
A esteatose hepática, que se caracteriza pelo acúmulo excessivo de gordura nas células do fígado, é um problema que vem preocupando a comunidade médico-científica, pois sua incidência vem aumentando a nível global, com expectativa de se tornar a doença crônica hepática de maior predominância em várias partes do mundo. Apesar de ser considerada uma doença benigna, a esteatose pode evoluir para doenças mais graves como cirrose, fibrose avançada, esteato hepatite (com ou sem fibrose) ou carcinoma. Entretanto, é potencialmente reversível, mesmo em quadros mais graves, o que reforça a urgência de se desenvolver métodos confiáveis para detecção e avaliação, inclusive ao longo de tratamento. Os métodos atuais para diagnóstico e quantificação da gordura hepática ainda são falhos: com a ultrassonografia não se é capaz de realizar quantificação; a tomografia computadorizada faz uso de radiação ionizante; a punção (biópsia), considerada o padrão ouro, é precisa, mas invasiva e pontual. A Ressonância Magnética (RM), tanto com espectroscopia (MRS) como com imagem (MRI), são alternativas completamente não invasivas, capazes de fornecer o diagnóstico e quantificação da gordura infiltrada no fígado. Entretanto, os trabalhos encontrados na literatura utilizam sequências de pulsos desenvolvidas especialmente para esse fim, com métodos de pós-processamento extremamente rebuscados, o que não é compatível com o estado atual dos equipamentos encontrados em ambientes clínicos nem mesmo ao nível de experiência e conhecimento das equipes técnicas que atuam em clínicas de radiodiagnóstico. Assim, o objetivo central do presente trabalho foi avaliar o potencial da RM como candidato a método de diagnóstico e de quantificação de gordura em ambientes clínicos, utilizando, para isso, sequências de pulsos convencionais, disponíveis em qualquer sistema comercial de RM, com protocolos de aquisição e processamento compatíveis com àqueles realizados em exames clínicos, tanto no que se refere à simplicidade como ao tempo total de aquisição. Foram avaliadas diferentes abordagens de MRS e MRI utilizando a biópsia hepática como padrão de referência. Foram avaliados pacientes portadores de diabetes tipo II, que apresentam alta prevalência de esteatose hepática não alcoólica, além de grande variabilidade nos percentuais de gordura. Foram realizadas medidas de correlação, acurácia, sensibilidade e especificidade de cada uma das abordagens utilizadas. Todos os métodos avaliados apresentaram alto grau de correlação positiva (> 87%) com os dados obtidos de maneira invasiva, o que revela que os valores obtidos utilizando RM estão de acordo com aquilo observado pela biópsia hepática. Muito embora os métodos de processamento utilizados não sejam tão complexos quanto seriam necessários caso uma quantificação absoluta fosse desejada, nossas análises mostraram alta acurácia, especificidade e sensibilidade da RM na avaliação da esteatose. Em conclusão, a RM se apresenta, de fato, como uma excelente candidata para avaliar, de forma não invasiva, a fração de gordura hepática, mesmo quando se considera as limitações impostas por um ambiente clínico convencional. Isso sugere que essas novas metodologias podem começar a migrar para ambientes clínicos sem depender das sequências complexas e dos processamentos exóticos que estão descritos na literatura mais atual.
Resumo:
O presente trabalho está fundamentado no desenvolvimento de uma metodologia e/ou uma tecnologia de obtenção e caracterização de filtros ópticos de interferência de banda passante variável [C.M. da Silva, 2010] e de banda de corte variáveis, constituídos por refletores dielétricos multicamadas de filmes finos intercalados por cavidades de Fabry-Perot não planares com espessuras linearmente variáveis, que apresentam a propriedade do deslocamento linear da transmitância máxima espectral em função da posição, isto é, um Filtro de Interferência Variável (FIV). Este método apresenta novas e abrangentes possibilidades de confecção de filtros ópticos de interferência variável: lineares ou em outras formas desejadas, de comprimento de onda de corte variável (passa baixa ou alta) e filtros de densidade neutra variável, através da deposição de metais, além de aplicações em uma promissora e nova área de pesquisa na deposição de filmes finos não uniformes. A etapa inicial deste desenvolvimento foi o estudo da teoria dos filtros ópticos dielétricos de interferência para projetar e construir um filtro óptico banda passante convencional de um comprimento de onda central com camadas homogêneas. A etapa seguinte, com base na teoria óptica dos filmes finos já estabelecida, foi desenvolver a extensão destes conhecimentos para determinar que a variação da espessura em um perfil inclinado e linear da cavidade entre os refletores de Bragg é o principal parâmetro para produzir o deslocamento espacial da transmitância espectral, possibilitando o uso de técnicas especiais para se obter uma variação em faixas de bandas de grande amplitude, em um único filtro. Um trabalho de modelagem analítica e análise de tolerância de espessuras dos filmes depositados foram necessários para a seleção da estratégia do \"mascaramento\" seletivo do material evaporado formado na câmara e-Beam (elétron-Beam) com o objetivo da obtenção do filtro espectral linear variável de características desejadas. Para tanto, de acordo com os requisitos de projeto, foram necessárias adaptações em uma evaporadora por e-Beam para receber um obliterador mecânico especialmente projetado para compatibilizar os parâmetros das técnicas convencionais de deposição com o objetivo de se obter um perfil inclinado, perfil este previsto em processos de simulação para ajustar e calibrar a geometria do obliterador e se obter um filme depositado na espessura, conformação e disposição pretendidos. Ao final destas etapas de modelagem analítica, simulação e refinamento recorrente, foram determinados os parâmetros de projeto para obtenção de um determinado FIV (Filtro de Interferência Variável) especificado. Baseadas nos FIVs muitas aplicações são emergentes: dispositivos multi, hiper e ultra espectral para sensoriamento remoto e análise ambiental, sistemas Lab-on-Chip, biossensores, detectores chip-sized, espectrofotometria de fluorescência on-chip, detectores de deslocamento de comprimento de onda, sistemas de interrogação, sistemas de imageamento espectral, microespectrofotômetros e etc. No escopo deste trabalho se pretende abranger um estudo de uma referência básica do emprego do (FIV) filtro de interferência variável como detector de varredura de comprimento de ondas em sensores biológicos e químicos compatível com pós processamento CMOS. Um sistema básico que é constituído por um FIV montado sobre uma matriz de sensores ópticos conectada a um módulo eletrônico dedicado a medir a intensidade da radiação incidente e as bandas de absorção das moléculas presentes em uma câmara de detecção de um sistema próprio de canais de microfluidos, configurando-se em um sistema de aquisição e armazenamento de dados (DAS), é proposto para demonstrar as possibilidades do FIV e para servir de base para estudos exploratórios das suas diversas potencialidades que, entre tantas, algumas são mencionadas ao longo deste trabalho. O protótipo obtido é capaz de analisar fluidos químicos ou biológicos e pode ser confrontado com os resultados obtidos por equipamentos homologados de uso corrente.
Resumo:
LIDAR (LIght Detection And Ranging) first return elevation data of the Boston, Massachusetts region from MassGIS at 1-meter resolution. This LIDAR data was captured in Spring 2002. LIDAR first return data (which shows the highest ground features, e.g. tree canopy, buildings etc.) can be used to produce a digital terrain model of the Earth's surface. This dataset consists of 74 First Return DEM tiles. The tiles are 4km by 4km areas corresponding with the MassGIS orthoimage index. This data set was collected using 3Di's Digital Airborne Topographic Imaging System II (DATIS II). The area of coverage corresponds to the following MassGIS orthophoto quads covering the Boston region (MassGIS orthophoto quad ID: 229890, 229894, 229898, 229902, 233886, 233890, 233894, 233898, 233902, 233906, 233910, 237890, 237894, 237898, 237902, 237906, 237910, 241890, 241894, 241898, 241902, 245898, 245902). The geographic extent of this dataset is the same as that of the MassGIS dataset: Boston, Massachusetts Region 1:5,000 Color Ortho Imagery (1/2-meter Resolution), 2001 and was used to produce the MassGIS dataset: Boston, Massachusetts, 2-Dimensional Building Footprints with Roof Height Data (from LIDAR data), 2002 [see cross references].
Resumo:
This dataset consists of 2D footprints of the buildings in the metropolitan Boston area, based on tiles in the orthoimage index (orthophoto quad ID: 229890, 229894, 229898, 229902, 233886, 233890, 233894, 233898, 233902, 237890, 237894, 237898, 237902, 241890, 241894, 241898, 241902, 245898, 245902). This data set was collected using 3Di's Digital Airborne Topographic Imaging System II (DATIS II). Roof height and footprint elevation attributes (derived from 1-meter resolution LIDAR (LIght Detection And Ranging) data) are included as part of each building feature. This data can be combined with other datasets to create 3D representations of buildings and the surrounding environment.
Resumo:
Senior thesis written for Oceanography 445
Resumo:
An approach reported recently by Alexandrov et al (2005 Int. J Imag. Syst. Technol. 14 253-8) on optical scatter imaging, termed digital Fourier microscopy (DFM), represents an adaptation of digital Fourier holography to selective imaging of biological matter. The holographic mode of the recording of the sample optical scatter enables reconstruction of the sample image. The form-factor of the sample constituents provides a basis for discrimination of these constituents implemented via flexible digital Fourier filtering at the post-processing stage. As in dark-field microscopy, the DFM image contrast appears to improve due to the suppressed optical scatter from extended sample structures. In this paper, we present the theoretical and experimental study of DFM using a biological phantom that contains polymorphic scatterers.
Resumo:
In this paper, we propose a novel high-dimensional index method, the BM+-tree, to support efficient processing of similarity search queries in high-dimensional spaces. The main idea of the proposed index is to improve data partitioning efficiency in a high-dimensional space by using a rotary binary hyperplane, which further partitions a subspace and can also take advantage of the twin node concept used in the M+-tree. Compared with the key dimension concept in the M+-tree, the binary hyperplane is more effective in data filtering. High space utilization is achieved by dynamically performing data reallocation between twin nodes. In addition, a post processing step is used after index building to ensure effective filtration. Experimental results using two types of real data sets illustrate a significantly improved filtering efficiency.
Resumo:
Mass spectrometry imaging (MSI) is a powerful tool in metabolomics and proteomics for the spatial localization and identification of pharmaceuticals, metabolites, lipids, peptides and proteins in biological tissues. However, sample preparation remains a crucial variable in obtaining the most accurate distributions. Common washing steps used to remove salts, and solvent-based matrix application, allow analyte spreading to occur. Solvent-free matrix applications can reduce this risk, but increase the possibility of ionisation bias due to matrix adhesion to tissue sections. We report here the use of matrix-free MSI using laser desorption ionisation performed on a 12 T Fourier transform ion cyclotron resonance (FTICR) mass spectrometer. We used unprocessed tissue with no post-processing following thaw-mounting on matrix-assisted laser desorption ionisation (MALDI) indium-tin oxide (ITO) target plates. The identification and distribution of a range of phospholipids in mouse brain and kidney sections are presented and compared with previously published MALDI time-of-flight (TOF) MSI distributions.
Resumo:
The purpose of this work is to gain knowledge on kinetics of biomass decomposition under oxidative atmospheres, mainly examining effect of heating rate on different biomass species. Two sets of experiments are carried out: the first set of experiments is thermal decomposition of four different wood particles, namely aspens, birch, oak and pine under an oxidative atmosphere and analysis with TGA; and the second set is to use large size samples of wood under different heat fluxes in a purpose-built furnace, where the temperature distribution, mass loss and ignition characteristics are recorded and analyzed by a data post-processing system. The experimental data is then used to develop a two-step reactions kinetic scheme with low and high temperature regions while the activation energy for the reactions of the species under different heating rates is calculated. It is found that the activation energy of the second stage reaction for the species with similar constituent fractions tends to converge to a similar value under the high heating rate.
Resumo:
Tonal, textural and contextual properties are used in manual photointerpretation of remotely sensed data. This study has used these three attributes to produce a lithological map of semi arid northwest Argentina by semi automatic computer classification procedures of remotely sensed data. Three different types of satellite data were investigated, these were LANDSAT MSS, TM and SIR-A imagery. Supervised classification procedures using tonal features only produced poor classification results. LANDSAT MSS produced classification accuracies in the range of 40 to 60%, while accuracies of 50 to 70% were achieved using LANDSAT TM data. The addition of SIR-A data produced increases in the classification accuracy. The increased classification accuracy of TM over the MSS is because of the better discrimination of geological materials afforded by the middle infra red bands of the TM sensor. The maximum likelihood classifier consistently produced classification accuracies 10 to 15% higher than either the minimum distance to means or decision tree classifier, this improved accuracy was obtained at the cost of greatly increased processing time. A new type of classifier the spectral shape classifier, which is computationally as fast as a minimum distance to means classifier is described. However, the results for this classifier were disappointing, being lower in most cases than the minimum distance or decision tree procedures. The classification results using only tonal features were felt to be unacceptably poor, therefore textural attributes were investigated. Texture is an important attribute used by photogeologists to discriminate lithology. In the case of TM data, texture measures were found to increase the classification accuracy by up to 15%. However, in the case of the LANDSAT MSS data the use of texture measures did not provide any significant increase in the accuracy of classification. For TM data, it was found that second order texture, especially the SGLDM based measures, produced highest classification accuracy. Contextual post processing was found to increase classification accuracy and improve the visual appearance of classified output by removing isolated misclassified pixels which tend to clutter classified images. Simple contextual features, such as mode filters were found to out perform more complex features such as gravitational filter or minimal area replacement methods. Generally the larger the size of the filter, the greater the increase in the accuracy. Production rules were used to build a knowledge based system which used tonal and textural features to identify sedimentary lithologies in each of the two test sites. The knowledge based system was able to identify six out of ten lithologies correctly.
Resumo:
Aim of the work is the implementation of a low temperature reforming (LT reforming) unit downstream the Haloclean pyrolyser in order to enhance the heating value of the pyrolysis gas. Outside the focus of this work was to gain a synthesis gas quality for further use. Temperatures between 400 °C and 500 °C were applied. A commercial pre-reforming catalyst on a nickel basis from Südchemie was chosen for LT reforming. As biogenic feedstock wheat straw has been used. Pyrolysis of wheat straw at 450 °C by means of Haloclean pyrolysis leads to 28% of char, 50% of condensate and 22% of gas. The condensate separates in a water phase and an organic phase. The organic phase is liquid, but contains viscous compounds. These compounds could underlay aging and could lead to solid tars which can cause post processing problems. Therefore, the implementation of a catalytic reformer is not only of interest from an energetic point of view, it is generally interesting for tar conversion purposes after pyrolysis applications. By using a fixed bed reforming unit at 450–490 °C and space velocities about 3000 l/h the pyrolysis gas volume flow could be increased to about 58%. This corresponds to a decrease of the yields of condensates by means of catalysis up to 17%, the yield of char remains unchanged, since pyrolysis conditions are the same. The heating value in the pyrolysis gas could be increased by the factor of 1.64. Hydrogen concentrations up to 14% could be realised.
Resumo:
In this second talk on dissipative structures in fiber applications, we overview theoretical aspects of the generation, evolution and characterization of self-similar parabolic-shaped pulses in fiber amplifier media. In particular, we present a perturbation analysis that describes the structural changes induced by third-order fiber dispersion on the parabolic pulse solution of the nonlinear Schrödinger equation with gain. Promising applications of parabolic pulses in optical signal post-processing and regeneration in communication systems are also discussed.
Resumo:
The production of agricultural and horticultural products requires the use of nitrogenous fertiliser that can cause pollution of surface and ground water and has a large carbon footprint as it is mainly produced from fossil fuels. The overall objective of this research project was to investigate fast pyrolysis and in-situ nitrogenolysis of biomass and biogenic residues as an alternative route to produce a sustainable solid slow release fertiliser mitigating the above stated problems. A variety of biomasses and biogenic residues were characterized by proximate analysis, ultimate analysis, thermogravimetric analysis (TGA) and Pyrolysis – Gas chromatography – Mass Spectroscopy (Py–GC–MS) for their potential use as feedstocks using beech wood as a reference material. Beech wood was virtually nitrogen free and therefore suitable as a reference material as added nitrogen can be identified as such while Dried Distillers Grains with Solubles (DDGS) and rape meal had a nitrogen content between 5.5wt.% and 6.1wt.% qualifying them as high nitrogen feedstocks. Fast pyrolysis and in-situ nitrogenolysis experiments were carried out in a continuously fed 1kg/h bubbling fluidized bed reactor at around 500°C quenching the pyrolysis vapours with isoparaffin. In-situ nitrogenolysis experiments were performed by adding ammonia gas to the fast pyrolysis reactor at nominal nitrogen addition rates between 5wt.%C and 20wt.%C based on the dry feedstock’s carbon content basis. Mass balances were established for the processing experiments. The fast pyrolysis and in-situ nitrogenolysis products were characterized by proximate analysis, ultimate analysis and GC– MS. High liquid yields and good mass balance closures of over 92% were obtained. The most suitable nitrogen addition rate for the in-situ nitrogenolysis experiments was determined to be 12wt.%C on dry feedstock carbon content basis. However, only a few nitrogen compounds that were formed during in-situ nitrogenolysis could be identified by GC–MS. A batch reactor process was developed to thermally solidify the fast pyrolysis and in-situ nitrogenolysis liquids of beech wood and Barley DDGS producing a brittle solid product. This was obtained at 150°C with an addition of 2.5wt% char (as catalyst) after a processing time of 1h. The batch reactor was also used for modifying and solidifying fast pyrolysis liquids derived from beech wood by adding urea or ammonium phosphate as post processing nitrogenolysis. The results showed that this type of combined approach was not suitable to produce a slow release fertiliser, because the solid product contained up to 65wt.% of highly water soluble nitrogen compounds that would be released instantly by rain. To complement the processing experiments a comparative study via Py–GC–MS with inert and reactive gas was performed with cellulose, hemicellulose, lignin and beech wood. This revealed that the presence of ammonia gas during analytical pyrolysis did not appear to have any direct impact on the decomposition products of the tested materials. The chromatograms obtained showed almost no differences between inert and ammonia gas experiments indicating that the reaction between ammonia and pyrolysis vapours does not occur instantly. A comparative study via Fourier Transformed Infrared Spectroscopy of solidified fast pyrolysis and in-situ nitrogenolysis products showed that there were some alterations in the spectra obtained. A shift in frequencies indicating C=O stretches typically related to the presence of carboxylic acids to C=O stretches related to amides was observed and no double or triple bonded nitrogen was detected. This indicates that organic acids reacted with ammonia and that no potentially harmful or non-biodegradable triple bonded nitrogen compounds were formed. The impact of solid slow release fertiliser (SRF) derived from pyrolysis and in-situ nitrogenolysis products from beech wood and Barley DDGS on microbial life in soils and plant growth was tested in cooperation with Rothamsted Research. The microbial incubation tests indicated that microbes can thrive on the SRFs produced, although some microbial species seem to have a reduced activity at very high concentrations of beech wood and Barley DDGS derived SRF. The plant tests (pot trials) showed that the application of SRF derived from beech wood and barley DDGS had no negative impact on germination or plant growth of rye grass. The fertilizing effect was proven by the dry matter yields in three harvests after 47 days, 89 days and 131 days. The findings of this research indicate that in general a slow release fertiliser can be produced from biomass and biogenic residues by in-situ nitrogenolysis. Nevertheless the findings also show that additional research is necessary to identify which compounds are formed during this process.