921 resultados para Standard method
Resumo:
Os métodos volumétricos de recolha de amostras de ar constituem os métodos dominantes atualmente para a monitorização de aeroalergenos, sendo a metodologia “Hírst” a dominante para a monitorização do pólen atmosférico. Recentemente têm surgido alguns avanços metodológicos nesta área combinando tecnologias bioquímicas e imunológicas pelo que se empreendeu este estudo a fim de comparar uma tecnologia “Ciclone”, desenvolvida no âmbito de um projeto europeu do programa LIFE (LIFE05 ENV/F/000068), com o referido método padrão quanto à eficiência de captação do pólen atmosférico e à deteção de aeroalergenos polínicos. Métodos: Foram efetuadas amostragens do conteúdo polínico atmosférico dos períodos de polinização dos anos 2006 e 2007 mediante um coletor tipo “Hirst” (Burkard® Seven Day Recording Volumetric Spore Trap®) e um coletor tipo “Ciclone” (AeoluS®, Coriolis ® da Bertin Technologies), colocados lado a lado. Foram instalados sobre uma plataforma meteorológica situada no centro da cidade de Évora, 17m acima do nível do solo. As amostras foram analisadas de acordo com os protocolos estabelecidos para cada método. De forma complementar foi realizada uma correlação dos dados obtidos com os registos de inquéritos sintomatológicos efetuados por voluntários das consultas externas de Imunoalergologia do hospital do Espírito Santo em Évora. Todos aqueles que apresentaram queixas respiratórias durante 0 período primaveril efetuaram testes cutâneos em “Prick” modificado aos aeroalergenos mais frequentes na região, a fim de se determinar o respetivo Perl de sensibilidades. Resultados: Esperou-se com este estudo testar a eficácia de uma nova metodologia para deteção e análise de bioaerossóis, comparativamente com a metodologia padrão e com a sua relação sintomatologia atópica respiratória. /ABSTRACT - Nowadays volumetric methods for bioaerosols sampling constitute the main methods to monitor the aeroallergens whereas “Hirst" methodology is the most dominant method to monitor airborne pollen. Recently some methodological advances have been introduced in this area matching biochemical and immunological technologies and so a study was accomplished in order to compare a "Cyclone” technology, developed under the scope of a European project - the LFE program -, with the mentioned standard method in terms of efficiency of airborne pollen sampling and detection of aeroallergens. Methods: Air samples from the outdoor environment were collected during the pollination period, along the year 2006 and 2007 with a "Hirst"-t3pe collector (Burkard® Seven Day Recording Volumetric Spore Trap®) and a "Cyclone"-type collector (Aeolus®, Coriolis® Bertin Technologies), placed side by side. They were installed on a meteorological platform situated at the center of Évora, 17m above ground level. Samples were analyzed according to the established protocols by each method. In a complementary way a data correlation was done between the symptomatologic inquiries fiom volunteers of the Immunoallergology external consultations at the Hospital Espírito Santo, in Évora. Everyone declaring breathing complaints during the spring season had done modified skin 'Trick" tests to the most usual aeroallergens of the region Results: It is waited from this study to test the efficiency of a new methodology for detection and analysis of bioaerossols, comparatively with the standard methodology and and its relation with the atopic simptomatologic breathing
Resumo:
Dissertação apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do Grau de Mestre em Auditoria ORIENTAÇÃO: DR. JOÃO COSTA
Resumo:
GOAL: The manufacturing and distribution of strips of instant thin - layer chromatography with silica gel (ITLC - SG) (reference method) is currently discontinued so there is a need for an alternative method f or the determination of radiochemical purity (RCP) of 99m Tc - tetrofosmin. This study aims to compare five alternative methods proposed by the producer to determine the RCP of 99m Tc - tetrofosmin. METHODS: Nineteen vials of tetrofosmin were radiolabelled with 99m Tc and the percentages of the RCP were determined. Five different methods were compared with the standard RCP testing method (ITLC - SG, 2x20 cm): Whatman 3MM (1x10 cm) with acetone and dichloro - methane (method 1); Whatman 3MM (1x1 0 cm) with ethyl acetate (method 2); aluminum oxide - coated plastic thin - layer chromatography (TLC) plate (1x10 cm) and ethanol (method 3); Whatman 3MM (2x20 cm) with acetone and dichloro - methane (method 4); solid - phase extraction method C18 cartridge (meth od 5). RESULTS: The average values of RCP were 95,30% ± 1,28% (method 1), 93,95 ± 0,61% (method 2), 96,85% ± 0,93% (method 3), 92,94% ± 0,99% (method 4) and 96,25% ± 2,57% (method 5) (n=12 each), and 93,15% ± 1,13% for the standard method (n=19). There we re statistical significant differences in the values obtained for methods 1 (P=0,001), 3 (P=0,000) and 5 (P=0,004), and there were no statistical significant differences in the values obtained for methods 2 (P=0,113) and 4 (P=0,327). CONCLUSION: From the results obtained, methods 2 and 4 showed a higher correlation with the standard method. Unlike method 4, method 2 is less time - consuming than the reference method and can overcome the problems associated with the solvent toxicity. The remaining methods (1, 3 and 5) tended to overestimate RCP value compared to the standard method.
Resumo:
Este trabalho é uma análise dos efeitos da implementação das últimas recomendações do Basel Committee on Banking Supervision (BCBS) também conhecidas como o Basel III de 2010 que deverão ser faseadamente implementadas desde 1 de Janeiro de 2013 até 1 de Janeiro de 2019, no capital próprio dos bancos Portugueses. Neste trabalho assume-se que os ativos pesados pelo risco de 2012 mantêm-se constantes e o capital terá de ser aumentado segundo as recomendações ano após ano até ao fim de 2018. Com esta análise, pretende-se entender o nível de robustez do capital próprio dos bancos Portugueses e se os mesmos têm capital e reservas suficientes para satisfazer as recomendações de capital mínimo sugeridas pelo BCBS ou caso contrário, se necessitarão de novas injeções de capital ou terão de reduzir a sua atividade económica. O Basel III ainda não foi implementado em Portugal, pois a União Europeia está no processo de desenvolvimento e implementação do Credit Requirement Directive IV (CRD IV) que é uma recomendação que todos os bancos centrais dos países da zona Euro deverão impor aos respetivos bancos. Esta diretiva da União Europeia é baseada totalmente nas recomendações do Basel III e deverá ser implementada em 2014 ou nos anos seguintes. Até agora, os bancos Portugueses seguem um sistema com base no aviso 6/2010 do Banco de Portugal que recomenda o cálculo dos rácios core tier 1, tier 1 e tier 2 usando o método notações internas (IRB) de avaliação da exposição do banco aos riscos de crédito, operacional, etc. e onde os ativos ponderados pelo risco são calculados como 12,5 vezes o valor dos requisitos totais de fundos calculados pelo banco. Este método é baseado nas recomendações do Basel II que serão substituídas pelo Basel III. Dado que um dos principais motivos para a crise económica e financeira que assolou o mundo em 2007 foi a acumulação de alavancagem excessiva e gradual erosão da qualidade da base do capital próprio dos bancos, é importante analisar a posição dos bancos Portugueses, que embora não sejam muito grandes a nível global, controlam a economia do país. Espera-se que com a implementação das recomendações do Basel III não haja no futuro uma repetição dos choques sistémicos de 2007. Os resultados deste estudo usando o método padrão recomendado pelo BCBS mostram que de catorze bancos Portugueses incluídos neste estudo, apenas seis (BES, Montepio, Finantia, BIG, Invest e BIC) conseguem enquadrar nas recomendações mínimas do Basel III até 1-1- 2019 e alguns outros estão marginalmente abaixo dos rácios mínimos (CGD, Itaú e Crédito Agrícola).
Resumo:
BlueGiga Technologies on uusi Bluetooth -teknologiaa soveltava pk-yritys. Yrityksen tuotekehitysprosessia täydentämään tarvittiin testausprosessi. Testausprosessin luominen oli haastavaa, koska Bluetooth -teknologia on uutta ja yritys on vielä nuori. Lisäksi se integroi kovo- ja ohjelmistokomponentteja tuotteissaan. Testaus aloitettiin evaluoimalla standardinmukaista tapaa dokumentoida testit. Tämän jälkeen tutkittiin BlueGigan ohjelmistokehitysprosessin suhdetta olemassa oleviin ohjelmistokehitysprosesseihin. Samanaikaisesti perehdyttiin Bluetooth -kvalifikaation testaukselle asettamiin vaatimuksiin. Tämän seurauksena TTCN:ää kokeiltiin helppolukuisen testitapauksen määrittelyssä. Käyttötapauksiin perustuvan testauksen sopivuutta Wireless Remote Access Platform:in (WRAP) testaamiseen arvioitiin kokeilemalla sitä Man-to-Machine -käyttötapauksen testaamisessa. Yllämainittujen tehtävien aikana kerätyn tiedon ja hankittujen kokemusten pohjalta laadittiin testausprosessi, joka kattaa yksikkö-, integraatio- ja järjestelmätason testauksen. Painopiste on järjestelmätason testauksessa. Prosessi määrittelee myös vastuuhenkilön tai -henkilöt eri testaustasoille.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Listeria monocytogenes (L. monocytogenes) est un pathogène majeur en santé publique comme les épisodes de 2008 dans les fromages et les charcuteries l’ont démontré. Au Canada, il n’y a pas de surveillance règlementaire de ce microorganisme dans les étapes précédant la transformation de produits prêts-à-manger. Ainsi, la présence et la circulation de ce microorganisme dans ces environnements est peu documentée. Pour décrire ces phénomènes, nous avons effectué un échantillonnage dans une usine d’abattage et de découpe de porcs au Québec, principalement dans les parcs d’attente, et dans l’environnement de l’abattage et de découpe : les échantillonages ont été effectués après lavage et désinfection sur une période de 2 ans. Un nombre de 874 échantillons a été récoltés. Le protocole de détection utilisé était inspiré de la méthode MFHPB-30 de Santé Canada. Les sérotypes ont été obtenus par PCR et les isolats caractérisés par un génotypage RFLP-PFGE en utilisant les enzymes de restriction Apa1 et Asc1. Nous avons détecté la présence de Listeria monocytogemes dans toutes ces étapes de la production. De ces échantillons positifs, 4 sérotypes (principalement 1/2b) ont émergé. Les patrons PFGE ont démontré la présence d’une variété de génotypes dans les zones d’attente et d’abattage de l’usine et la présence d’un type majeur dans l’environnement de la zone de découpe (le type 1 représentant 96.1% des souches à cette étape). De plus, nous avons démontré des liens entre les souches retrouvés au début de la production, en attente, et les souches retrouvées dans la zone de découpe. Ces résultats suggèrent que Listeria monocytogenes entre dans l’usine avec les animaux, contamine les étapes suivantes de la production et que certaines souches peuvent être sélectionnées et leur croissance favorisé dans l’environnement, devenant majoritaires, persistantes et préoccupantes en regars de la santé publique.
Resumo:
Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.
Resumo:
La digestion enzymatique des protéines est une méthode de base pour les études protéomiques ainsi que pour le séquençage en mode « bottom-up ». Les enzymes sont ajoutées soit en solution (phase homogène), soit directement sur le gel polyacrylamide selon la méthode déjà utilisée pour l’isolation de la protéine. Les enzymes protéolytiques immobilisées, c’est-à-dire insolubles, offrent plusieurs avantages tels que la réutilisation de l’enzyme, un rapport élevé d’enzyme-sur-substrat, et une intégration facile avec les systèmes fluidiques. Dans cette étude, la chymotrypsine (CT) a été immobilisée par réticulation avec le glutaraldehyde (GA), ce qui crée des particules insolubles. L’efficacité d’immobilisation, déterminée par spectrophotométrie d’absorbance, était de 96% de la masse totale de la CT ajouté. Plusieurs différentes conditions d’immobilisation (i.e., réticulation) tels que la composition/pH du tampon et la masse de CT durant la réticulation ainsi que les différentes conditions d’entreposage tels que la température, durée et humidité pour les particules GA-CT ont été évaluées par comparaison des cartes peptidiques en électrophorèse capillaire (CE) des protéines standards digérées par les particules. Les particules de GA-CT ont été utilisés pour digérer la BSA comme exemple d’une protéine repliée large qui requit une dénaturation préalable à la digestion, et pour digérer la caséine marquée avec de l’isothiocyanate de fluorescéine (FITC) comme exemple d’un substrat dérivé afin de vérifier l’activité enzymatique du GA-CT dans la présence des groupements fluorescents liés au substrat. La cartographie peptidique des digestions par les particules GA-CT a été réalisée par CE avec la détection par absorbance ultraviolet (UV) ou fluorescence induite par laser. La caséine-FITC a été, en effet, digérée par GA-CT au même degré que par la CT libre (i.e., soluble). Un microréacteur enzymatique (IMER) a été fabriqué par immobilisation de la CT dans un capillaire de silice fondu du diamètre interne de 250 µm prétraité avec du 3-aminopropyltriéthoxysilane afin de fonctionnaliser la paroi interne avec les groupements amines. Le GA a été réagit avec les groupements amine puis la CT a été immobilisée par réticulation avec le GA. Les IMERs à base de GA-CT étaient préparé à l’aide d’un système CE automatisé puis utilisé pour digérer la BSA, la myoglobine, un peptide ayant 9 résidus et un dipeptide comme exemples des substrats ayant taille large, moyenne et petite, respectivement. La comparaison des cartes peptidiques des digestats obtenues par CE-UV ou CE-spectrométrie de masse nous permettent d’étudier les conditions d’immobilisation en fonction de la composition et le pH du tampon et le temps de réaction de la réticulation. Une étude par microscopie de fluorescence, un outil utilisé pour examiner l’étendue et les endroits d’immobilisation GA-CT dans l’IMER, ont montré que l’immobilisation a eu lieu majoritairement sur la paroi et que la réticulation ne s’est étendue pas si loin au centre du capillaire qu’anticipée.
Resumo:
La Fibrose kystique (FK) est une maladie génétique qui se traduit par une destruction progressive des poumons et éventuellement, à la mort. La principale complication secondaire est le diabète associé à la FK (DAFK). Une dégradation clinique (perte de poids et de la fonction pulmonaire) accélérée est observée avant le diagnostic. L’objectif principal de mon projet de doctorat est de déterminer, par l’intermédiaire du test d’hyperglycémie provoquée par voie orale (HGPO), s’il existe un lien entre l’hyperglycémie et/ou l’hypoinsulinémie et la dégradation clinique observée avant le diagnostic du DAFK. Nous allons ainsi évaluer l’importance des temps intermédiaires de l’HGPO afin de simplifier le diagnostic d’une dysglycémie ainsi que d’établir des nouveaux marqueurs indicateurs de patients à risque d’une détérioration clinique. L’HGPO est la méthode standard utilisée dans la FK pour le diagnostic du DAFK. Nous avons démontré que les valeurs de glycémie obtenues au temps 90-min de l’HGPO seraient suffisantes pour prédire la tolérance au glucose des patients adultes avec la FK, autrement établie à l’aide des valeurs à 2-h de l’HGPO. Nous proposons des glycémies à 90-min de l’HGPO supérieure à 9.3 mmol/L et supérieure à 11.5 mmol/L pour détecter l’intolérance au glucose et le DAFK, respectivement. Une cause importante du DAFK est un défaut de la sécrétion d’insuline. Les femmes atteintes de la FK ont un risque plus élevé de développer le DAFK que les hommes, nous avons donc exploré si leur sécrétion était altérée. Contrairement à notre hypothèse, nous avons observé que les femmes avec la FK avaient une sécrétion d’insuline totale plus élevée que les hommes avec la FK, mais à des niveaux comparables aux femmes en santé. Le groupe de tolérance au glucose récemment proposé et nommé indéterminé (INDET : 60-min HGPO > 11.0 mais 2h-HGPO <7.8mmol/L) est à risque élevé de développer le DAFK. Par contre, les caractéristiques cliniques de ce groupe chez les patients adultes avec la FK n’ont pas été établies. Nous avons observé que le groupe INDET a une fonction pulmonaire réduite et similaire au groupe DAFK de novo et aucun des paramètres glucidiques et insulinémiques expliqueraient cette observation. Dans une population pédiatrique de patients avec la FK, une association a été rapportée entre une glycémie élevée à 60-min de l’HGPO et une fonction pulmonaire diminuée. Dans notre groupe de patients adultes avec la FK, il existe une association négative entre la glycémie à 60-min de l’HGPO et la fonction pulmonaire et une corrélation positive entre l’insulinémie à 60-min de l’HGPO et l’indice de masse corporelle (IMC). De plus, les patients avec une glycémie à 60-min HGPO > 11.0 mmol/L ont une fonction pulmonaire diminuée et une sensibilité à l’insuline basse alors que ceux avec une insulinémie à 60-min HGPO < 43.4 μU/mL ont un IMC ainsi qu’une fonction pulmonaire diminués. En conclusion, nous sommes le premier groupe à démontrer que 1) le test d’HGPO peut être raccourci de 30 min sans compromettre la catégorisation de la tolérance au glucose, 2) les femmes avec la FK démontrent une préservation de leur sécrétion de l’insuline, 3) le groupe INDET présente des anomalies précoces de la fonction pulmonaire comparable au groupe DAFK de novo et 4) la glycémie et l’insuline à la première heure de l’HGPO sont associées aux deux éléments clefs de la dégradation clinique. Il est crucial d’élucider les mécanismes pathophysiologiques importants afin de mieux prévoir la survenue de la dégradation clinique précédant le DAFK.
Resumo:
The fabrication and analytical applications of two types of potentiometric sensors for the determination of ketoconazole (KET) are described. The sensors are based on the use of KET-molybdophosphoric acid (MPA) ion pair as electroactive material. The fabricated sensors include both polymer membrane and carbon paste electrodes. Both sensors showed a linear, stable and near Nernstian slope of 57.8mV=decade and 55.2mV=decade for PVC membrane and carbon paste sensors respectively over a relatively wide range of KET concentration (1×10-2-5×10-5 and 1×10-2-1×10-6). The sensors showed a fast response time of <30 sec and <45 sec. A useful pH range of 3–6 was obtained for both types of sensors. A detection limit of 2.96 10 5M was obtained for PVC membrane sensor and 6.91 10 6M was obtained for carbon paste sensor. The proposed sensors proved to have a good selectivity for KET with respect to a large number of ions. The proposed sensors were successfully applied for the determination of KET in pharmaceutical formulations. The results obtained are in good agreement with the values obtained by the standard method.
Resumo:
Material synthesizing and characterization has been one of the major areas of scientific research for the past few decades. Various techniques have been suggested for the preparation and characterization of thin films and bulk samples according to the industrial and scientific applications. Material characterization implies the determination of the electrical, magnetic, optical or thermal properties of the material under study. Though it is possible to study all these properties of a material, we concentrate on the thermal and optical properties of certain polymers. The thermal properties are detennined using photothermal beam deflection technique and the optical properties are obtained from various spectroscopic analyses. In addition, thermal properties of a class of semiconducting compounds, copper delafossites, arc determined by photoacoustic technique.Photothermal technique is one of the most powerful tools for non-destructive characterization of materials. This forms a broad class of technique, which includes laser calorimetry, pyroelectric technique, photoacollstics, photothermal radiometric technique, photothermal beam deflection technique etc. However, the choice of a suitable technique depends upon the nature of sample and its environment, purpose of measurement, nature of light source used etc. The polynler samples under the present investigation are thermally thin and optically transparent at the excitation (pump beam) wavelength. Photothermal beam deflection technique is advantageous in that it can be used for the detennination of thermal diffusivity of samples irrespective of them being thermally thick or thennally thin and optically opaque or optically transparent. Hence of all the abovementioned techniques, photothemlal beam deflection technique is employed for the successful determination of thermal diffusivity of these polymer samples. However, the semi conducting samples studied are themlally thick and optically opaque and therefore, a much simpler photoacoustic technique is used for the thermal characterization.The production of polymer thin film samples has gained considerable attention for the past few years. Different techniques like plasma polymerization, electron bombardment, ultra violet irradiation and thermal evaporation can be used for the preparation of polymer thin films from their respective monomers. Among these, plasma polymerization or glow discharge polymerization has been widely lIsed for polymer thin fi Im preparation. At the earlier stages of the discovery, the plasma polymerization technique was not treated as a standard method for preparation of polymers. This method gained importance only when they were used to make special coatings on metals and began to be recognized as a technique for synthesizing polymers. Thc well-recognized concept of conventional polymerization is based on molecular processcs by which thc size of the molecule increases and rearrangemcnt of atoms within a molecule seldom occurs. However, polymer formation in plasma is recognized as an atomic process in contrast to the above molecular process. These films are pinhole free, highly branched and cross linked, heat resistant, exceptionally dielectric etc. The optical properties like the direct and indirect bandgaps, refractive indices etc of certain plasma polymerized thin films prepared are determined from the UV -VIS-NIR absorption and transmission spectra. The possible linkage in the formation of the polymers is suggested by comparing the FTIR spectra of the monomer and the polymer. The thermal diffusivity has been measured using the photothermal beam deflection technique as stated earlier. This technique measures the refractive index gradient established in the sample surface and in the adjacent coupling medium, by passing another optical beam (probe beam) through this region and hence the name probe beam deflection. The deflection is detected using a position sensitive detector and its output is fed to a lock-in-amplifIer from which the amplitude and phase of the deflection can be directly obtained. The amplitude and phase of the deflection signal is suitably analyzed for determining the thermal diffusivity.Another class of compounds under the present investigation is copper delafossites. These samples in the form of pellets are thermally thick and optically opaque. Thermal diffusivity of such semiconductors is investigated using the photoacoustic technique, which measures the pressure change using an elcctret microphone. The output of the microphone is fed to a lock-in-amplificr to obtain the amplitude and phase from which the thermal properties are obtained. The variation in thermal diffusivity with composition is studied.
Resumo:
The fabrication and electrochemical response characteristics of two novel potentiometric sensors for the selective determination of domperidone (DOM) are described. The two fabricated sensors incorporate DOM–PTA (phosphotungstic acid) ion pair as the electroactive material. The sensors include a PVC membrane sensor and a carbon paste sensor. The sensors showed a linear, stable, and near Nernstian slope of 56.5 and 57.8 mV/decade for PVC membrane and carbon paste sensors, respectively over a relatively wide range of DOM concentration (1.0 9 10-1–1.0 9 10-5 and 1.0 9 10-1–3.55 9 10-6 M). The response time of DOM–PTA membrane sensor was less than 25 s and that in the case of carbon paste sensor was less than 20 s.Auseful pH range of 4–6 was obtained for both types of sensors. A detection limit of 7.36 9 10-5 M was obtained for PVC membrane sensor and 1.0 9 10-6 M was obtained for carbon paste sensor. The proposed sensors showed very good selectivity toDOMin the presence of a large number of other interfering ions. The analytical application of the developed sensors in the determination of the drug in pharmaceutical formulations such as tablets was investigated. The results obtained are in good agreement with the values obtained by the standard method. The sensors were also applied for the determination ofDOMin real samples such as urine by the standard addition method.
Resumo:
In this study, a novel improved technology could be developed to convert the recalcitrant coir pith into environmental friendly organic manure. The standard method of composting involves the substitution of urea with nitrogen fixing bacteria viz. Azotobacter vinelandii and Azospirillum brasilense leading to the development of an improved method of coir pith. The combined action of the microorganisms could enhance the biodegradation of coir pith. In the present study, Pleurotus sajor caju, an edible mushroom which has the ability to degrade coir pith, and the addition of nitrogen fixing bacteria like Azotobacter vinelandii and Azospirillum brasilense could accelerate the action of the fungi on coir pith. The use of these microorganisms brings about definite changes in the NPK, Ammonia, Organic Carbon and Lignin contents in coir pith. This study will encourage the use of biodegraded coir pith as organic manure for agri/horti purpose to get better yields and can serve as a better technology to solve the problem of accumulated coir pith in coir based industries
Resumo:
In [4], Guillard and Viozat propose a finite volume method for the simulation of inviscid steady as well as unsteady flows at low Mach numbers, based on a preconditioning technique. The scheme satisfies the results of a single scale asymptotic analysis in a discrete sense and comprises the advantage that this can be derived by a slight modification of the dissipation term within the numerical flux function. Unfortunately, it can be observed by numerical experiments that the preconditioned approach combined with an explicit time integration scheme turns out to be unstable if the time step Dt does not satisfy the requirement to be O(M2) as the Mach number M tends to zero, whereas the corresponding standard method remains stable up to Dt=O(M), M to 0, which results from the well-known CFL-condition. We present a comprehensive mathematical substantiation of this numerical phenomenon by means of a von Neumann stability analysis, which reveals that in contrast to the standard approach, the dissipation matrix of the preconditioned numerical flux function possesses an eigenvalue growing like M-2 as M tends to zero, thus causing the diminishment of the stability region of the explicit scheme. Thereby, we present statements for both the standard preconditioner used by Guillard and Viozat [4] and the more general one due to Turkel [21]. The theoretical results are after wards confirmed by numerical experiments.