921 resultados para Radiochemical laboratories.
Resumo:
Le diagnostic de prédisposition génétique du cancer du sein et de l’ovaire est détenu par la firme de biotechnologie Myriad Genetics depuis 1996, sous la forme d’un brevet, qui lui octroie une licence d’exploitation internationale, infirmant le droit d’analyse moléculaire aux autres laboratoires. Ce monopole, lui permet de statuer sur un prix excessivement plus élevé qu’en milieu public et d’astreindre en justice, les laboratoires contrevenants. Depuis 2001, le Québec est la seule province qui se soumet (en partie) au brevet, en faisant appel à la compagnie pour le séquençage complet. À travers cette recherche, j’analyse les politiques de brevetage génétique, dans sa construction juridique de la propriété intellectuelle et dans les significations culturelles des biotechnologies. Je m’appuie sur un cadre analytique des théories de propriété et sur la recherche en biomédical. Je procède également à l’analyse du discours des médecins et conseillers généticiens au Québec, à travers des entrevues conduites dans des centres hospitaliers de la région de Montréal et de Sherbrooke. Cette étude qualitative identifie comment les conseillers et médecins généticiens conçoivent le rôle des brevets dans les dépistages et diagnostics du cancer et comment les brevets génétiques expriment une culture médicale. Je cherche à déterminer comment sont perçus par des professionnels de santé les brevets génétiques en analysant et en comparant les variations entre limites idéologiques et limites pratiques.
Resumo:
Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.
Resumo:
Le discours sur l’innovation oriente la recherche scientifique médicale publique vers un développement technologique et économique à court terme. À ce titre, la médecine régénératrice est une thérapie innovatrice marquée par une logique d’accumulation spéculative qui porte à la fois sur les cellules humaines et sur la façon de mener la recherche. Or, une réorganisation de la recherche scientifique liée à une nouvelle conception économique de la science et de la technologie ainsi qu’un rôle différent attribué à l’État constituent le cadre institutionnel contemporain qui émerge à la fin des années 1970. Le changement induit par cette idée d’innovation et sur lequel s’attarde ce mémoire porte non pas sur l’usage ou la destination de la science, mais sur l’extension du raisonnement économique. Celui-ci ne survient pas à l’étape du développement, après que la recherche ait été effectuée en vertu du modèle de la « Big Science ». Au contraire, il remonte du marché pour s’installer très tôt au stade de la compréhension des mécanismes biologiques et dans un espace qui relève de la propriété collective : le laboratoire public. Le passage du caractère « exogène » à « endogène » de la recherche scientifique publique vis-à-vis de l’économie est au cœur d’une discussion sur l’hégémonie de la logique de marché.
Resumo:
La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.
Resumo:
Les champignons mycorhizien à arbuscules (CMA) sont des organismes pouvant établir des symbioses avec 80% des plantes terrestres. Les avantages d'une telle symbiose sont de plus en plus caractérisés et exploités en agriculture. Par contre, jusqu'à maintenant, il n'existe aucun outil permettant à la fois l'identification et la quantification de ces champignons dans le sol de façon fiable et rapide. Un tel outil permettrait, entre autres, de mieux comprendre les dynamiques des populations des endomycorhizes dans le sol. Pour les producteurs d'inoculum mycorhiziens, cela permettrait également d'établir un suivi de leurs produits en champs et d'avoir un contrôle de qualité de plus sur leurs inoculants. C'est ce que nous avons tenté de développer au sein du laboratoire du Dr. Hijri. Depuis environ une trentaine d'années, des outils d'identification et/ou de quantification ont été développés en utilisant les profiles d'acides gras, les isozymes, les anticorps et finalement l'ADN nucléaire. À ce jour, ces méthodes d’identification et de quantification sont soit coûteuses, soit imprécises. Qui plus est, aucune méthode ne permet à la fois la quantification et l’identification de souches particulières de CMA. L’ADN mitochondrial ne présente pas le même polymorphisme de séquence que celui qui rend l’ADN nucléaire impropre à la quantification. C'est pourquoi nous avons analysé les séquences d’ADN mitochondrial et sélectionné les régions caractéristiques de deux espèces de champignons mycorhiziens arbusculaires (CMA). C’est à partir de ces régions que nous avons développé des marqueurs moléculaires sous forme de sondes et d’amorces TaqMan permettant de quantifier le nombre de mitochondries de chacune de ces espèces dans un échantillon d’ADN. Nous avons ensuite tenté de déterminer une unité de quantification des CMA, soit un nombre de mitochondries par spore. C’est alors que nous avons réalisé que la méthode de préparation des échantillons de spores ainsi que la méthode d’extraction d’ADN avaient des effets significatifs sur l’unité de quantification de base. Nous avons donc optimisé ces protocoles, avant d’en e tester l’application sur des échantillons de sol et de racines ayant été inoculés avec chacune des deux espèces cibles. À ce stade, cet outil est toujours semi-quantificatif, mais il permet 9 l’identification précise de deux espèces de CMA compétentes dans des milieux saturés en phosphore inorganique. Ces résultats , en plus d’être prometteurs, ont permis d’augmenter les connaissances méthodologiques reliées à la quantification des CMA dans le sol, et suggèrent qu’à cause de leurs morphologies différentes, l’élaboration d’un protocole de quantification standardisé pour toutes les espèces de CMA demeure un objectif complexe, qui demande de nouvelles études in vivo.
Resumo:
Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.
Resumo:
Poor cold flow properties of vegetable oils are a major problem preventing the usage of many abundantly available vegetable oils as base stocks for industrial lubricants. The major objective of this research is to improve the cold flow properties of vegetable oils by various techniques like additive addition and different chemical modification processes. Conventional procedure for determining pour point is ASTM D97 method. ASTM D97 method is time consuming and reproducibility of pour point temperatures is poor between laboratories. Differential Scanning Calorimetry (DSC) is a fast, accurate and reproducible method to analyze the thermal activities during cooling/heating of oil. In this work coconut oil has been chosen as representative vegetable oil for the analysis and improvement cold flow properties since it is abundantly available in the tropics and has a very high pour point of 24 °C. DSC is used for the analysis of unmodified and modified vegetable oil. The modified oils (with acceptable pour points) were then subjected to different tests for the valuation of important lubricant properties such as viscometric, tribological (friction and wear properties), oxidative and corrosion properties.A commercial polymethacrylate based PPD was added in different percentages and the pour points were determined in each case. Styrenated phenol(SP) was added in different concentration to coconut oil and each solution was subjected to ASTM D97 test and analysis by DSC. Refined coconut oil and other oils like castor oil, sunflower oil and keranja oil were mixed in different proportions and interesterification procedure was carried out. Interesterification of coconut oil with other vegetable oils was not found to be effective in lowering the pour point of coconut oil as the reduction attained was only to the extent of 2 to 3 °C.Chemical modification by acid catalysed condensation reaction with coconut oil castor oil mixture resulted in significant reduction of pour point (from 24 ºC to -3 ºC). Instead of using triacylglycerols, when their fatty acid derivatives (lauric acid- the major fatty acid content of coconut oil and oleic acid- the major fatty acid constituents of monoand poly- unsaturated vegetable oils like olive oil, sunflower oil etc.) were used for the synthesis , the pour point could be brought down to -42 ºC. FTIR and NMR spectroscopy confirmed the ester structure of the product which is fundamental to the biodegradability of vegetable oils. The tribological performance of the synthesised product with a suitable AW/EP additive was comparable to the commercial SAE20W30 oil. The viscometric properties (viscosity and viscosity index) were also (with out additives) comparable to commercial lubricants. The TGA experiment confirmed the better oxidative performance of the product compared to vegetable oils. The sample passed corrosion test as per ASTM D130 method.
Resumo:
Nonlinear optics has emerged as a new area of physics , following the development of various types of lasers. A number of advancements , both theoretical and experimental . have been made in the past two decades . by scientists al1 over the world. However , onl y few scientists have attempted to study the experimental aspects of nonlinear optical phenomena i n I ndian laboratories. This thesis is the report of an attempt made in this direction. The thesis contains the details of the several investigations which the author has carried out in the past few years, on optical phase conjugation (OPC) and continuous wave CCVD second harmonic generation CSHG). OPC is a new branch of nonlinear optics, developed only in the past decade. The author has done a few experiments on low power OPC in dye molecules held in solid matrices, by making use of a degenerate four wave mixing CDFWND scheme. These samples have been characterised by studies on their absorption-spectra. fluorescence spectra. triplet lifetimes and saturation intensities. Phase conjugation efficiencies with r espect to the various parameters have been i nvesti gated . DFWM scheme was also employed i n achievi ng phase conjugation of a br oadband laser C Nd: G1ass 3 using a dye solution as the nonlinear medium.
Resumo:
‘Biochemical genetics of selected commercially important penaeid prawns‘ dloted was carried out by collecting samples from different important fishing ceatres of India and the practical work was carried out in the Research Centre of CMFRI laboratories attached with those places. On the whole, in crustacea little importance has been given so far in finding out tin genetic characteristics of different species, genetic variation within and between species and ontogenetic variations in lobsters, prawns and other crustaceans. Prawn is caunercially important group where very little attention had been given so far to find out the racial divergence which may exist in cufferent species. with the increased foreign exchange earning and consequent indiscriminate over exploitation of existing resources of prawns resulting in depletion of the marine rescurces, alternative ways and augmenting production has become essential. In this connection genetic manipulation of the broodstock will surely bring about the heterogenous characters to multiply production. In order to understand racial fragmentation of sane of the coumercially important prawns such as Pengeus ggdicus and Parggenagsis sgliferg the isozyme studies were carried out. Qatogenetic variation of g. indicus showed stage specific electrophoretic variation. Inter species variation studies was carried out for the closely aligned Penaeus species
Resumo:
Voltammetric methods are applicable for the determination of a wide variety of both organic and inorganic species. Its features are compact equipment, simple sample preparation, short analysis time, high accuracy and sensitivity. Voltammetry is especially suitable for laboratories in which only a few parameters have to be monitored with a moderate sample throughput. Of various electrode materials, glassy carbon electrode is particularly useful because of its high electrical conductivity, impermeability to gases, high chemical resistance, reasonable mechanical and dimensional stability and widest potential range of all carbonaceous electrodes. Electrode modification is a vigorous research area by which the electrochemical determination of various analyte species is facilitated. The scope of pharmaceutical analysis includes the analytical investigation of pure drug, drug formulations, impurities and degradation products of drugs, biological samples containing the drugs and their metabolites with the aim of obtaining data that can contribute to the maximal efficacy and maximal safety of drug therapy. This thesis presents the modification of glassy carbon electrode using metalloporphyrin and dyes and subsequently using these modified electrodes for the determination of various pharmaceuticals. The thesis consists of 9 chapters.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
Ultrafast laser pulses have become an integral part of the toolbox of countless laboratories doing physics, chemistry, and biological research. The work presented here is motivated by a section in the ever-growing, interdisciplinary research towards understanding the fundamental workings of light-matter interactions. Specifically, attosecond pulses can be useful tools to obtain the desired insight. However access to, and the utility of, such pulses is dependent on the generation of intense, few-cycle, carrier-envelope-phase stabilized laser pulses. The presented work can be thought of as a sort of roadmap towards the latter. From the oscillator which provides the broadband seed to amplification methods, the integral pieces necessary for the generation of attosecond pulses are discussed. A range of topics from the fundamentals to design challenges is presented, outfitting the way towards the practical implementation of an intense few-cycle carrier-envelope-phase stabilized laser source.
Resumo:
Sensing with electromagnetic waves having frequencies in the Terahertz-range is a very attractive investigative method with applications in fundamental research and industrial settings. Up to now, a lot of sources and detectors are available. However, most of these systems are bulky and have to be used in controllable environments such as laboratories. In 1993 Dyakonov and Shur suggested that plasma waves developing in field-effect-transistors can be used to emit and detect THz-radiation. Later on, it was shown that these plasma waves lead to rectification and allows for building efficient detectors. In contrast to the prediction that these plasma waves lead to new promising solid-state sources, only a few weak sources are known up to now. This work studies THz plasma waves in semiconductor devices using the Monte Carlo method in order to resolve this issue. A fast Monte Carlo solver was developed implementing a nonparabolic bandstructure representation of the used semiconductors. By investigating simplified field-effect-transistors it was found that the plasma frequency follows under equilibrium conditions the analytical predictions. However, no current oscillations were found at room temperature or with a current flowing in the channel. For more complex structures, consisting of ungated and gated regions, it was found that the plasma frequency does not follow the value predicted by the dispersion relation of the gated nor the ungated device.
Resumo:
Low concentrations of elements in geochemical analyses have the peculiarity of being compositional data and, for a given level of significance, are likely to be beyond the capabilities of laboratories to distinguish between minute concentrations and complete absence, thus preventing laboratories from reporting extremely low concentrations of the analyte. Instead, what is reported is the detection limit, which is the minimum concentration that conclusively differentiates between presence and absence of the element. A spatially distributed exhaustive sample is employed in this study to generate unbiased sub-samples, which are further censored to observe the effect that different detection limits and sample sizes have on the inference of population distributions starting from geochemical analyses having specimens below detection limit (nondetects). The isometric logratio transformation is used to convert the compositional data in the simplex to samples in real space, thus allowing the practitioner to properly borrow from the large source of statistical techniques valid only in real space. The bootstrap method is used to numerically investigate the reliability of inferring several distributional parameters employing different forms of imputation for the censored data. The case study illustrates that, in general, best results are obtained when imputations are made using the distribution best fitting the readings above detection limit and exposes the problems of other more widely used practices. When the sample is spatially correlated, it is necessary to combine the bootstrap with stochastic simulation