947 resultados para Data pre-processing


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plusieurs études ont permis la caractérisation de la structure et de la fonction du ribosome. En ce qui attrait à la biogénèse du ribosome, nombreux aspects restent à être découverts et compris de façon plus dynamique. En effet, cette biogénèse englobe une variété de voies de modifications et d’assemblages requises pour la maturation des ARNr et pour leurs liaisons avec les protéines ribosomales. De ce fait, les protéines Noc ont été caractérisées comme des facteurs d’assemblages et ont permis la découverte d’une des premières indications sur l’ordre spatio-temporel de la maturation du ribosome. Ainsi, en utilisant la levure comme modèle, notre objectif est d’étudier d’avantage l’échange des complexes composés des protéines Noc ainsi que leur localisation intranucléaire. Ainsi, la nature des interactions de Noc2p avec Noc1p et Noc3p et l’influence de l’arrêt du transport intranucléaire ont été étudiés en utilisant des promoteurs inductibles, la microscopie à fluorescence, des immunobuvardages, qRT-PCR et des purifications par affinité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une femme à risque d’un accouchement prématuré vit un enjeu de santé très éprouvant et stressant ; elle sera souvent hospitalisée pour recevoir des traitements médicaux visant à prolonger la grossesse et améliorer le pronostic du bébé. Dans ce contexte, une consultation avec un néonatalogiste est demandée. Plusieurs associations professionnelles médicales ont émis des lignes directrices sur cette consultation, insistant sur le besoin d’informer les parents au sujet des complications potentielles de la prématurité pour leur enfant. Ces recommandations s’inspirent du point de vue médical, et très peu d’études ont examiné la perspective, les attentes et les besoins des parents à risque d’un accouchement prématuré. Ce projet de thèse a pour objectif de proposer un modèle de relation médecin-patient informé de la perspective maternelle de la consultation anténatale, pour développer une approche clinique répondant à leurs besoins. Afin d’examiner cette problématique de façon complète, un travail constant de va-et-vient a été effectué entre la recension de données empiriques et une réflexion normative bioéthique féministe. Un projet de recherche empirique a d’abord permis d’explorer les attentes et le vécu de ces femmes. Les participantes espéraient recevoir plus que de l’information sur les complications de la prématurité. Elles souhaitaient que le néonatologiste soit attentif à leur situation particulière et qu’il développe une relation de confiance avec elles, leur permettant d’explorer leurs futurs rôles de mères et les encourageant à formuler leurs propres questions. Le cadre théorique féministe d’autonomie relationnelle a ensuite permis de proposer une approche de soin qui sache répondre aux besoins identifiés par les patientes, tout en adressant des enjeux de pouvoir intrinsèques à la clinique, qui influencent la santé et l’autonomie de ces femmes. Cette approche insiste sur l’importance de la relation de soin en clinique, contrastant avec un modèle encourageant une vision réductrice de l’autonomie, dans laquelle un simple transfert de données scientifiques serait équivalent au respect de la norme médicolégale du consentement éclairé. Ce modèle relationnel propose des actions concrètes et pratiques, encourageant les cliniciens à entrer en relation avec chaque patiente et à considérer l’influence qu’ils exercent sur l’autonomie relationnelle de leurs patientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the present studies it is clear that Bacillus pumilus xylanase is having the characteristic suited for an industrial enzyme (xylanases that are active and stable at elevated temperatures and alkaline pH are needed). SSF production of xylanases and its application appears to be an innovative technology where the fermented substrate is the enzyme source that is used directly in the bleaching process without a prior downstream processing. The direct use of SSF enzymes in bleaching is a relatively new biobleaching approach. This can certainly benefit the bleaching process to lower the xylanase production costs and improve the economics and viability of the biobleaching technology. The application of enzymes to the bleaching process has been considered as an environmentally friendly approach that can reduce the negative impact on the environment exerted by the use of chlorine-based bleaching agents. It has been demonstrated that pretreatment of kraft pulp with xylanase prior to bleaching (biobleaching) can facilitate subsequent removal of lignin by bleaching chemicals, thereby, reducing the demand for elemental chlorine or improving final paper brightness. Using this xylanase pre-treatment, has resulted in an increased of brightness (8.5 Unit) when compared to non-enzymatic treated bleached pulp prepared using identical conditions. Reduction of the consumption of active chlorine can be achieved which results in a decrease in the toxicity, colour, chloride and absorbable organic halogen (AOX) levels of bleaching effluents. The xylanase treatment improves drainage, strength properties and the fragility of pulps, and also increases the brightness of pulps. This positive result shows that enzyme pre-treatment facilitates the removal of chromophore fragments of pulp there by making the process more environment friendly

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present study brings out the influence of transport dynamics on the aerosol distribution over the Indian region at a few selected geographically distinct locations. Over the Bay of Bengal the dominant pathway of aerosol transport during the pre-monsoon period is through higher altitudes (~ 3 km); directed from the Indian main land. In contrast, the aerosol pathways over the Arabian Sea during the same period are quite complex. They are directed from geographically different environments around the ocean through different altitudes. However in general, the day-to-day variability of AOD at both these regions is significantly influenced by the features of atmospheric circulation especially, the wind convergence at higher altitudes (around 3 km). Over the Ganga Basin during the winter period, the wind convergence at lower altitudes (< I km) govems the shon term variations in AOD, while the mean AOD distribution at this location is mainly governed by the local anthropogenic sources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present Study is designed to gather, record and analyse data on history of pepper, pepper production, procurement and marketing with particular reference to Kerala. The main emphasis is given to study the'role of cooperative sector with regard to procurement and export efforts and also the services rendered by cooperative sector agencies under MARKETFED and NAFED to pepper trade. The scope of the Study covers the botany, methods of cultivation, fertilizer application, pest control management and other related aspects of pepper. Taking into consideration Kerala's supremacy in pepper cultivation and production, detailed study of its production, procurement, internal and export marketing with reference to Kerala has been given importance. As Kerala accounts for 96 per cent1 of the pepper cultivation and 94 per cent of the pepper production, the present study is entirely confined to Kerala

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis is an outcome of the investigations carried out on the development of an Artificial Neural Network (ANN) model to implement 2-D DFT at high speed. A new definition of 2-D DFT relation is presented. This new definition enables DFT computation organized in stages involving only real addition except at the final stage of computation. The number of stages is always fixed at 4. Two different strategies are proposed. 1) A visual representation of 2-D DFT coefficients. 2) A neural network approach. The visual representation scheme can be used to compute, analyze and manipulate 2D signals such as images in the frequency domain in terms of symbols derived from 2x2 DFT. This, in turn, can be represented in terms of real data. This approach can help analyze signals in the frequency domain even without computing the DFT coefficients. A hierarchical neural network model is developed to implement 2-D DFT. Presently, this model is capable of implementing 2-D DFT for a particular order N such that ((N))4 = 2. The model can be developed into one that can implement the 2-D DFT for any order N upto a set maximum limited by the hardware constraints. The reported method shows a potential in implementing the 2-D DF T in hardware as a VLSI / ASIC

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis investigated the potential use of Linear Predictive Coding in speech communication applications. A Modified Block Adaptive Predictive Coder is developed, which reduces the computational burden and complexity without sacrificing the speech quality, as compared to the conventional adaptive predictive coding (APC) system. For this, changes in the evaluation methods have been evolved. This method is as different from the usual APC system in that the difference between the true and the predicted value is not transmitted. This allows the replacement of the high order predictor in the transmitter section of a predictive coding system, by a simple delay unit, which makes the transmitter quite simple. Also, the block length used in the processing of the speech signal is adjusted relative to the pitch period of the signal being processed rather than choosing a constant length as hitherto done by other researchers. The efficiency of the newly proposed coder has been supported with results of computer simulation using real speech data. Three methods for voiced/unvoiced/silent/transition classification have been presented. The first one is based on energy, zerocrossing rate and the periodicity of the waveform. The second method uses normalised correlation coefficient as the main parameter, while the third method utilizes a pitch-dependent correlation factor. The third algorithm which gives the minimum error probability has been chosen in a later chapter to design the modified coder The thesis also presents a comparazive study beh-cm the autocorrelation and the covariance methods used in the evaluaiicn of the predictor parameters. It has been proved that the azztocorrelation method is superior to the covariance method with respect to the filter stabf-it)‘ and also in an SNR sense, though the increase in gain is only small. The Modified Block Adaptive Coder applies a switching from pitch precitzion to spectrum prediction when the speech segment changes from a voiced or transition region to an unvoiced region. The experiments cont;-:ted in coding, transmission and simulation, used speech samples from .\£=_‘ajr2_1a:r1 and English phrases. Proposal for a speaker reecgnifion syste: and a phoneme identification system has also been outlized towards the end of the thesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The combined use of both radiosonde data and three-dimensional satellite derived data over ocean and land is useful for a better understanding of atmospheric thermodynamics. Here, an attempt is made to study the ther-modynamic structure of convective atmosphere during pre-monsoon season over southwest peninsular India utilizing satellite derived data and radiosonde data. The stability indices were computed for the selected stations over southwest peninsular India viz: Thiruvananthapuram and Cochin, using the radiosonde data for five pre- monsoon seasons. The stability indices studied for the region are Showalter Index (SI), K Index (KI), Lifted In-dex (LI), Total Totals Index (TTI), Humidity Index (HI), Deep Convective Index (DCI) and thermodynamic pa-rameters such as Convective Available Potential Energy (CAPE) and Convective Inhibition Energy (CINE). The traditional Showalter Index has been modified to incorporate the thermodynamics over tropical region. MODIS data over South Peninsular India is also used for the study. When there is a convective system over south penin-sular India, the value of LI over the region is less than −4. On the other hand, the region where LI is more than 2 is comparatively stable without any convection. Similarly, when KI values are in the range 35 to 40, there is a possibility for convection. The threshold value for TTI is found to be between 50 and 55. Further, we found that prior to convection, dry bulb temperature at 1000, 850, 700 and 500 hPa is minimum and the dew point tem-perature is a maximum, which leads to increase in relative humidity. The total column water vapor is maximum in the convective region and minimum in the stable region. The threshold values for the different stability indices are found to be agreeing with that reported in literature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents the design and development of a frame based approach for speech to sign language machine translation system in the domain of railways and banking. This work aims to utilize the capability of Artificial intelligence for the improvement of physically challenged, deaf-mute people. Our work concentrates on the sign language used by the deaf community of Indian subcontinent which is called Indian Sign Language (ISL). Input to the system is the clerk’s speech and the output of this system is a 3D virtual human character playing the signs for the uttered phrases. The system builds up 3D animation from pre-recorded motion capture data. Our work proposes to build a Malayalam to ISL

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rubber ferrite composites have the unique advantage of mouldability, which is not easily obtainable using ceramic magnetic materials. The incorporation of mixed ferrites in appropriate weight ratios into the rubber matrix not only modi es the dielectric properties of the composite but also imparts magnetic properties to it. Mixed ferrites belonging to the series of Mn(1 – x )Znx Fe2O4 have been synthesised with diVerent values of x in steps of 0·2, using conventional ceramic processing techniques. Rubber ferrite composites were prepared by the incorporation of these pre-characterised polycrystallineMn(1 – x )Znx Fe2O4 ceramics into a natural rubber matrix at diVerent loadings according to a speci c recipe. The processability of these elastomers was determined by investigating their cure characteristics. The magnetic properties of the ceramic llers as well as of the rubber ferrite composites were evaluated and the results were correlated. Studies of the magnetic properties of these rubber ferrite composites indicate that the magnetisation increases with loading of the ller without changing the coercive eld. The hardness of these composites shows a steady increase with the loading of the magnetic llers. The evaluation of hardness andmagnetic characteristics indicates that composites with optimummagnetisation and almost minimum stiVness can be achieved with a maximum loading of 120 phr of the ller at x=0·4. From the data on the magnetisation of the composites, a simple relationship connecting the magnetisation of the rubber ferrite composite and the ller was formulated. This can be used to synthesise rubber ferrite composites with predetermined magnetic properties

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analysis by reduction is a linguistically motivated method for checking correctness of a sentence. It can be modelled by restarting automata. In this paper we propose a method for learning restarting automata which are strictly locally testable (SLT-R-automata). The method is based on the concept of identification in the limit from positive examples only. Also we characterize the class of languages accepted by SLT-R-automata with respect to the Chomsky hierarchy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data mining means to summarize information from large amounts of raw data. It is one of the key technologies in many areas of economy, science, administration and the internet. In this report we introduce an approach for utilizing evolutionary algorithms to breed fuzzy classifier systems. This approach was exercised as part of a structured procedure by the students Achler, Göb and Voigtmann as contribution to the 2006 Data-Mining-Cup contest, yielding encouragingly positive results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Drei Feldversuche auf zwei Standorten (DFH: 51°4, 9°4’, BEL: 52°2’, 8°08’) wurden in den Jahren 2002 bis 2004 durchgeführt, um den Einfluss der Vorfrucht, des Vorkeimens, der N- und K-Düngung und der Sorte auf Nährstoffverfügbarkeit, Gesamt- und sortierte Knollenerträge sowie die Qualität von Kartoffeln und deren Eignung für die industrielle Verarbeitung zu Pommes frites und Chips zu untersuchen. Bestimmt wurden die N- und K-Verfügbarkeit im Boden, die N- und K-Aufnahme von Kraut und Knollen, gesamte Frisch- und Trockenmasseerträge, sortierte Frischmasseerträge für die Verarbeitung, sowie die Gehalte der Knollen an Trockensubstanz und reduzierenden Zuckern. In einer sensorischen Prüfung wurden Qualitätsparameter von Pommes frites (Aussehen/Farbe, Textur und Geschmack/Geruch) bewertet, die gewichtet in einen Qualitätsindex eingingen. Die Qualität der Chips wurde maschinell durch den L-Wert (Helligkeit) des Produktes quantifiziert. Der Gehalt des Bodens an mineralisiertem Nitrat-Stickstoff hing von der Vorfrucht und dem Jahr ab. Nach Erbsen wurden zum Auflaufen der Kartoffeln in den Versuchsjahren 2003 und 2004 (187 und 132 kg NO3-N ha-1) die höchsten NO3-N-Werte in 0-60 cm Boden gemessen verglichen mit Kleegras (169 bzw. 108 kg NO3-N ha-1 oder Getreide (112 kg bzw. 97 kg NO3-N ha-1), obgleich die Differenz nicht in allen Fällen signifikant war. Entsprechend wurden nach Erbsen die höchsten Knollen-Frischmasseerträge (414 und 308 dt ha-1) geerntet. Dasselbe galt für die Trockenmasserträge, was belegt, dass der Trockensubstanzgehalt der Knollen bei verbesserter N-Versorgung nicht im selben Maße sinkt, wie der Frischmasseertrag steigt. Das Vorkeimen der Pflanzknollen führte zu einer rascheren phänologischen Entwicklung im Jugendstadium der Pflanze, beschleunigter Trockenmassebildung des Krautes und einer früheren Einlagerung von Assimilaten vom Kraut in die Knollen. Obwohl die positive Wirkung des Vorkeimens auf den Gesamtertrag bis Ende Juli (+ 26 in 2003 bzw. 34 dt ha-1 in 2004) im Jahr ohne Krautfäuleepidemie von den nicht vorgekeimten Varianten bis zur Endernte im September kompensiert wurde, konnte in diesem Jahr durch Vorkeimen dennoch ein erhöhter Ertragsanteil (+ 12%) der besonders nachgefragten Übergrößen (>50 mm für Pommes frites) erzielt werden. Die durchschnittliche Knollenmasse reagierte positiv auf Vorkeimen (+ 5,4 g), Sortenwahl (Sorte Agria) und ein erhöhtes N-Angebot (Leguminosenvorfrucht). Generell wurde deutlich, dass die Knollengesamterträge unter den Bedingungen des Ökologischen Landbaus (geringe bis mittlere Nährstoffversorgung, verkürzte Vegetationsdauer) sehr stark vom Anbaujahr abhängen. Die Ergebnisse belegen jedoch, dass organisch-mineralische N-K-Düngung den sortierten Ertrag an Knollen für die Verarbeitung signifikant erhöht: Höchste Gesamt- und sortierte Knollenfrischmasseerträge wurden nach kombinierter N (Horngrieß) und mineralischer K- (Kaliumsulfat) Gabe erzielt (348 dt ha-1 im Durchschnitt von 2002-2004). Im Gegensatz dazu kann eine Wirkung von Stallmist auf den Ertrag im Jahr der Ausbringung nicht unbedingt erwartet werden. Steigende Erträge nach Stallmistdüngung wurden lediglich in einem von drei Versuchsjahren (+58 dt ha-1) festgestellt und ließen sich eher auf eine K- als eine N-Wirkung zurückführen. Die Ergebnisse belegen, dass die Sortenwahl eine entscheidende Rolle spielt, wenn die Kartoffeln für die industrielle Verarbeitung zu den oben genannten Produkten angebaut werden. Insgesamt kann festgestellt werden, dass Kartoffelknollen aus ökologischen Anbauverfahren ausreichend hohe Trockensubstanzgehalte aufweisen, um für die Verarbeitung zu Pommes frites (>19%) geeignet zu sein und ohne dass dadurch die Konsistenz des Endproduktes gefährdet würde. Der Trockensubstanzgehalt der Referenzsorte für Chips, „Marlen“, unterschritt das in der Literatur geforderte Minimum für Chips von 23% lediglich, wenn die kombinierte Horngrieß-Kaliumsulfatdüngung zur Anwendung kam. Die Trockensubstanzgehalte der Knollen konnten durch Vorkeimen signifikant gesteigert werden und der Effekt war besonders groß (+1.2% absolut) in dem Jahr mit frühem Auftreten der Krautfäule (Phytophthora infestans), d.h. verkürzter Vegetationszeit. Die Knollen-Trockensubstanzgehalte waren in zwei von drei Experimenten nach Lagerung höher (+0.4 und 0.5% absolut) als noch zur Ernte. Sorten der sehr frühen und frühen Reifegruppe wiesen den größten relativen Anstieg der Gehalte an reduzierenden Zuckern (Glukose und Fruktose) während der Lagerung auf. Den mittelfrühen Sorten „Agria“ und „Marena“ hingegen kann aufgrund des von ihnen erreichten höchsten Qualitätsstandards (Pommes frites) zur Ernte eine sehr gute Eignung für die Bedingungen des Ökologischen Landbaus unterstellt werden. Die durchgehend beste Chipseignung wies die mittelfrühe Referenzsorte „Marlen“ auf. Insgesamt konnte nachgewiesen werden, dass durch gezielte Sortenwahl der Trockensubstanzgehalt und die Konzentration reduzierender Zucker, sowie die Qualität der Endprodukte (Pommes frites und Chips) gezielt beeinflusst werden kann. Im Gegensatz dazu haben acker- und pflanzenbauliche Maßnahmen wie Düngung, Wahl der Vorfrucht und Vorkeimen der Pflanzknollen einen eher geringen Einfluss. Dementsprechend sollte der Landwirt versuchen, durch die Wahl der Sorte den hohen Anforderungen der Industrie an die Rohware gerecht zu werden.