955 resultados para Gordon, Matthew: Sociolinguistics : method and interpretation


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'agricultura i la industrialització han causat un augment significatiu del nombre d'ambients rics en amoni. La presència de compostos nitrogenats redueix la qualitat de l'aigua, causant problemes de toxicitat, deteriorant el medi ambient i fins i tot afectant la salut humana. En conseqüència, la nitrificació s'ha convertit en un procés global que afecta al cicle del nitrogen a la biosfera. Els bacteris oxidadors d'amoni (AOB) són els responsables de l'oxidació de l'amoni a nitrit, i juguen un paper essencial en el cicle del nitrogen. Els primers oxidadors d'amoni foren aïllats a finals del segle XIX, però la lentitud del seu creixement i les dificultats per cultivar-los feren que fins als anys 80, amb els primers estudis emprant el gen 16SrDNA, no s'assolís un coneixement complert d'aquest grup bacterià. Actualment les bases de dades contenen multitud d'entrades amb seqüències corresponents a AOB. L'objectiu d'aquest treball era trobar, desenvolupar i avaluar eines útils i fiables per a l'estudi dels AOB en mostres ambientals. En aquest treball primer descrivim la utilització de la hibridació in situ amb fluorescència (FISH), mitjançant l'aplicació de sondes amb diana en el 16SrRNA dels AOB. La FISH ens va permetre detectar i recomptar aquest grup bacterià; no obstant, aquest mètode no permetia la detecció de noves seqüències, pel que es necessitava una nova eina. Amb aquesta intenció vam aplicar la seqüència de la sonda Nso1225 en una PCR. El fet d'amplificar específicament un fragment del 16SrDNA dels AOB va suposar el desenvolupament d'una nova eina molecular que permetia detectar la presència i diversitat d'aquests bacteris en ambients naturals. Malgrat tot, algunes seqüències pertanyents a bacteris no oxidadors d'amoni del subgrup β dels proteobacteris, eren també obtingudes amb aquesta tècnica. Així mateix, un dels inconvenients de l'ús del 16SrDNA com a marcador és la impossibilitat de detectar simultàniament els AOB que pertanyen als subgrups β i γ dels proteobacteris. El gen amoA, que codifica per la subunitat A de l'enzim amoni monooxigenasa (AMO), era aleshores àmpliament utilitzat com a marcador per a la detecció dels AOB. En aquest treball també descrivim la utilització d'aquest marcador en mostres procedents d'un reactor SBR. Aquest marcador ens va permetre identificar seqüències de AOB en la mostra, però la necessitat de detectar amoA mitjançant clonatge fa que l'ús d'aquest marcador requereixi massa temps per a la seva utilització com a eina en estudis d'ecologia microbiana amb moltes mostres. Per altra banda, alguns autors han assenyalat l'obtenció de seqüències de no AOB en utilitzar amoA en un protocol de PCR-DGGE. Amb la finalitat d'obtenir una eina ràpida i rigorosa per detectar i identificar els AOB, vam desenvolupar un joc nou d'oligonucleòtids amb diana en el gen amoB, que codifica per a la subunitat transmembrana de l'enzim AMO. Aquest gen ha demostrat ser un bon marcador molecular pels AOB, oferint, sense tenir en compte afiliacions filogenètiques, una elevada especificitat, sensibilitat i fiabilitat. En aquest treball també presentem una anàlisi de RT-PCR basada en la detecció del gen amoB per a la quantificació del gènere Nitrosococcus. El nou joc d'oligonucleòtids dissenyat permet una enumeració altament específica i sensible de tots els γ-Nitrosococcus coneguts. Finalment, vam realitzar un estudi poligènic, comparant i avaluant els marcadors amoA, amoB i 16SrDNA, i vàrem construir un arbre filogenètic combinat. Com a resultat concloem que amoB és un marcador adequat per a la detecció i identificació dels AOB en mostres ambientals, proporcionant alhora agrupacions consistents en fer inferències filogenètiques. Per altra banda, la seqüència sencera del gen 16S rDNA és indicada com a marcador en estudis amb finalitats taxonòmiques i filogenètiques en treballar amb cultius purs de AOB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presencia de microorganismos patógenos en alimentos es uno de los problemas esenciales en salud pública, y las enfermedades producidas por los mismos es una de las causas más importantes de enfermedad. Por tanto, la aplicación de controles microbiológicos dentro de los programas de aseguramiento de la calidad es una premisa para minimizar el riesgo de infección de los consumidores. Los métodos microbiológicos clásicos requieren, en general, el uso de pre-enriquecimientos no-selectivos, enriquecimientos selectivos, aislamiento en medios selectivos y la confirmación posterior usando pruebas basadas en la morfología, bioquímica y serología propias de cada uno de los microorganismos objeto de estudio. Por lo tanto, estos métodos son laboriosos, requieren un largo proceso para obtener resultados definitivos y, además, no siempre pueden realizarse. Para solucionar estos inconvenientes se han desarrollado diversas metodologías alternativas para la detección identificación y cuantificación de microorganismos patógenos de origen alimentario, entre las que destacan los métodos inmunológicos y moleculares. En esta última categoría, la técnica basada en la reacción en cadena de la polimerasa (PCR) se ha convertido en la técnica diagnóstica más popular en microbiología, y recientemente, la introducción de una mejora de ésta, la PCR a tiempo real, ha producido una segunda revolución en la metodología diagnóstica molecular, como pude observarse por el número creciente de publicaciones científicas y la aparición continua de nuevos kits comerciales. La PCR a tiempo real es una técnica altamente sensible -detección de hasta una molécula- que permite la cuantificación exacta de secuencias de ADN específicas de microorganismos patógenos de origen alimentario. Además, otras ventajas que favorecen su implantación potencial en laboratorios de análisis de alimentos son su rapidez, sencillez y el formato en tubo cerrado que puede evitar contaminaciones post-PCR y favorece la automatización y un alto rendimiento. En este trabajo se han desarrollado técnicas moleculares (PCR y NASBA) sensibles y fiables para la detección, identificación y cuantificación de bacterias patogénicas de origen alimentario (Listeria spp., Mycobacterium avium subsp. paratuberculosis y Salmonella spp.). En concreto, se han diseñado y optimizado métodos basados en la técnica de PCR a tiempo real para cada uno de estos agentes: L. monocytogenes, L. innocua, Listeria spp. M. avium subsp. paratuberculosis, y también se ha optimizado y evaluado en diferentes centros un método previamente desarrollado para Salmonella spp. Además, se ha diseñado y optimizado un método basado en la técnica NASBA para la detección específica de M. avium subsp. paratuberculosis. También se evaluó la aplicación potencial de la técnica NASBA para la detección específica de formas viables de este microorganismo. Todos los métodos presentaron una especificidad del 100 % con una sensibilidad adecuada para su aplicación potencial a muestras reales de alimentos. Además, se han desarrollado y evaluado procedimientos de preparación de las muestras en productos cárnicos, productos pesqueros, leche y agua. De esta manera se han desarrollado métodos basados en la PCR a tiempo real totalmente específicos y altamente sensibles para la determinación cuantitativa de L. monocytogenes en productos cárnicos y en salmón y productos derivados como el salmón ahumado y de M. avium subsp. paratuberculosis en muestras de agua y leche. Además este último método ha sido también aplicado para evaluar la presencia de este microorganismo en el intestino de pacientes con la enfermedad de Crohn's, a partir de biopsias obtenidas de colonoscopia de voluntarios afectados. En conclusión, este estudio presenta ensayos moleculares selectivos y sensibles para la detección de patógenos en alimentos (Listeria spp., Mycobacterium avium subsp. paratuberculosis) y para una rápida e inambigua identificación de Salmonella spp. La exactitud relativa de los ensayos ha sido excelente, si se comparan con los métodos microbiológicos de referencia y pueden serusados para la cuantificación de tanto ADN genómico como de suspensiones celulares. Por otro lado, la combinación con tratamientos de preamplificación ha resultado ser de gran eficiencia para el análisis de las bacterias objeto de estudio. Por tanto, pueden constituir una estrategia útil para la detección rápida y sensible de patógenos en alimentos y deberían ser una herramienta adicional al rango de herramientas diagnósticas disponibles para el estudio de patógenos de origen alimentario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La comunitat científica que treballa en Intel·ligència Artificial (IA) ha dut a terme una gran quantitat de treball en com la IA pot ajudar a les persones a trobar el que volen dins d'Internet. La idea dels sistemes recomanadors ha estat extensament acceptada pels usuaris. La tasca principal d'un sistema recomanador és localitzar ítems, fonts d'informació i persones relacionades amb els interessos i preferències d'una persona o d'un grup de persones. Això comporta la construcció de models d'usuari i l'habilitat d'anticipar i predir les preferències de l'usuari. Aquesta tesi està focalitzada en l'estudi de tècniques d'IA que millorin el rendiment dels sistemes recomanadors. Inicialment, s'ha dut a terme un anàlisis detallat de l'actual estat de l'art en aquest camp. Aquest treball ha estat organitzat en forma de taxonomia on els sistemes recomanadors existents a Internet es classifiquen en 8 dimensions generals. Aquesta taxonomia ens aporta una base de coneixement indispensable pel disseny de la nostra proposta. El raonament basat en casos (CBR) és un paradigma per aprendre i raonar a partir de la experiència adequat per sistemes recomanadors degut als seus fonaments en el raonament humà. Aquesta tesi planteja una nova proposta de CBR aplicat al camp de la recomanació i un mecanisme d'oblit per perfils basats en casos que controla la rellevància i edat de les experiències passades. Els resultats experimentals demostren que aquesta proposta adapta millor els perfils als usuaris i soluciona el problema de la utilitat que pateixen el sistemes basats en CBR. Els sistemes recomanadors milloren espectacularment la qualitat dels resultats quan informació sobre els altres usuaris és utilitzada quan es recomana a un usuari concret. Aquesta tesi proposa l'agentificació dels sistemes recomanadors per tal de treure profit de propietats interessants dels agents com ara la proactivitat, la encapsulació o l'habilitat social. La col·laboració entre agents es realitza a partir del mètode de filtratge basat en la opinió i del mètode col·laboratiu de filtratge a partir de confiança. Els dos mètodes es basen en un model social de confiança que fa que els agents siguin menys vulnerables als altres quan col·laboren. Els resultats experimentals demostren que els agents recomanadors col·laboratius proposats milloren el rendiment del sistema mentre que preserven la privacitat de les dades personals de l'usuari. Finalment, aquesta tesi també proposa un procediment per avaluar sistemes recomanadors que permet la discussió científica dels resultats. Aquesta proposta simula el comportament dels usuaris al llarg del temps basat en perfils d'usuari reals. Esperem que aquesta metodologia d'avaluació contribueixi al progrés d'aquesta àrea de recerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The characteristics of service independence and flexibility of ATM networks make the control problems of such networks very critical. One of the main challenges in ATM networks is to design traffic control mechanisms that enable both economically efficient use of the network resources and desired quality of service to higher layer applications. Window flow control mechanisms of traditional packet switched networks are not well suited to real time services, at the speeds envisaged for the future networks. In this work, the utilisation of the Probability of Congestion (PC) as a bandwidth decision parameter is presented. The validity of PC utilisation is compared with QOS parameters in buffer-less environments when only the cell loss ratio (CLR) parameter is relevant. The convolution algorithm is a good solution for CAC in ATM networks with small buffers. If the source characteristics are known, the actual CLR can be very well estimated. Furthermore, this estimation is always conservative, allowing the retention of the network performance guarantees. Several experiments have been carried out and investigated to explain the deviation between the proposed method and the simulation. Time parameters for burst length and different buffer sizes have been considered. Experiments to confine the limits of the burst length with respect to the buffer size conclude that a minimum buffer size is necessary to achieve adequate cell contention. Note that propagation delay is a no dismiss limit for long distance and interactive communications, then small buffer must be used in order to minimise delay. Under previous premises, the convolution approach is the most accurate method used in bandwidth allocation. This method gives enough accuracy in both homogeneous and heterogeneous networks. But, the convolution approach has a considerable computation cost and a high number of accumulated calculations. To overcome this drawbacks, a new method of evaluation is analysed: the Enhanced Convolution Approach (ECA). In ECA, traffic is grouped in classes of identical parameters. By using the multinomial distribution function instead of the formula-based convolution, a partial state corresponding to each class of traffic is obtained. Finally, the global state probabilities are evaluated by multi-convolution of the partial results. This method avoids accumulated calculations and saves storage requirements, specially in complex scenarios. Sorting is the dominant factor for the formula-based convolution, whereas cost evaluation is the dominant factor for the enhanced convolution. A set of cut-off mechanisms are introduced to reduce the complexity of the ECA evaluation. The ECA also computes the CLR for each j-class of traffic (CLRj), an expression for the CLRj evaluation is also presented. We can conclude that by combining the ECA method with cut-off mechanisms, utilisation of ECA in real-time CAC environments as a single level scheme is always possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper discusses an experiment in psycholinguistic method and its application to the field of education.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Declining grassland breeding bird populations have led to increased efforts to assess habitat quality, typically by estimating density or relative abundance. Because some grassland habitats may function as ecological traps, a more appropriate metric for determining quality may be breeding success. Between 1994 and 2003 we gathered data on the nest fates of Eastern Meadowlarks (Sturnella magna), Bobolinks (Dolichonyx oryzivorous), and Savannah Sparrows (Passerculus sandwichensis) in a series of fallow fields and pastures/hayfields in western New York State. We calculated daily survival probabilities using the Mayfield method, and used the logistic-exposure method to model effects of predictor variables on nest success. Nest survival probabilities were 0.464 for Eastern Meadowlarks (n = 26), 0.483 for Bobolinks (n = 91), and 0.585 for Savannah Sparrows (n = 152). Fledge dates for first clutches ranged between 14 June and 23 July. Only one obligate grassland bird nest was parasitized by Brown-headed Cowbirds (Molothrus ater), for an overall brood parasitism rate of 0.004. Logistic-exposure models indicated that daily nest survival probabilities were higher in pastures/hayfields than in fallow fields. Our results, and those from other studies in the Northeast, suggest that properly managed cool season grassland habitats in the region may not act as ecological traps, and that obligate grassland birds in the region may have greater nest survival probabilities, and lower rates of Brown-headed Cowbird parasitism, than in many parts of the Midwest.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study compares the infant mortality profiles of 128 infants from two urban and two rural cemetery sites in medieval England. The aim of this paper is to assess the impact of urbanization and industrialization in terms of endogenous or exogenous causes of death. In order to undertake this analysis, two different methods of estimating gestational age from long bone lengths were used: a traditional regression method and a Bayesian method. The regression method tended to produce more marked peaks at 38 weeks, while the Bayesian method produced a broader range of ages and were more comparable with the expected "natural" mortality profiles. At all the sites, neonatal mortality (28-40 weeks) outweighed post-neonatal mortality (41-48 weeks) with rural Raunds Furnells in Northamptonshire, showing the highest number of neonatal deaths and post-medieval Spitalfields, London, showing a greater proportion of deaths due to exogenous or environmental factors. Of the four sites under study, Wharram Percy in Yorkshire showed the most convincing "natural" infant mortality profile, suggesting the inclusion of all births (i.e., stillbirths and unbaptised infants).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tidal channel networks play an important role in the intertidal zone, exerting substantial control over the hydrodynamics and sediment transport of the region and hence over the evolution of the salt marshes and tidal flats. The study of the morphodynamics of tidal channels is currently an active area of research, and a number of theories have been proposed which require for their validation measurement of channels over extensive areas. Remotely sensed data provide a suitable means for such channel mapping. The paper describes a technique that may be adapted to extract tidal channels from either aerial photographs or LiDAR data separately, or from both types of data used together in a fusion approach. Application of the technique to channel extraction from LiDAR data has been described previously. However, aerial photographs of intertidal zones are much more commonly available than LiDAR data, and most LiDAR flights now involve acquisition of multispectral images to complement the LiDAR data. In view of this, the paper investigates the use of multispectral data for semiautomatic identification of tidal channels, firstly from only aerial photographs or linescanner data, and secondly from fused linescanner and LiDAR data sets. A multi-level, knowledge-based approach is employed. The algorithm based on aerial photography can achieve a useful channel extraction, though may fail to detect some of the smaller channels, partly because the spectral response of parts of the non-channel areas may be similar to that of the channels. The algorithm for channel extraction from fused LiDAR and spectral data gives an increased accuracy, though only slightly higher than that obtained using LiDAR data alone. The results illustrate the difficulty of developing a fully automated method, and justify the semi-automatic approach adopted.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many recent inverse scattering techniques have been designed for single frequency scattered fields in the frequency domain. In practice, however, the data is collected in the time domain. Frequency domain inverse scattering algorithms obviously apply to time-harmonic scattering, or nearly time-harmonic scattering, through application of the Fourier transform. Fourier transform techniques can also be applied to non-time-harmonic scattering from pulses. Our goal here is twofold: first, to establish conditions on the time-dependent waves that provide a correspondence between time domain and frequency domain inverse scattering via Fourier transforms without recourse to the conventional limiting amplitude principle; secondly, we apply the analysis in the first part of this work toward the extension of a particular scattering technique, namely the point source method, to scattering from the requisite pulses. Numerical examples illustrate the method and suggest that reconstructions from admissible pulses deliver superior reconstructions compared to straight averaging of multi-frequency data. Copyright (C) 2006 John Wiley & Sons, Ltd.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we consider the scattering of a plane acoustic or electromagnetic wave by a one-dimensional, periodic rough surface. We restrict the discussion to the case when the boundary is sound soft in the acoustic case, perfectly reflecting with TE polarization in the EM case, so that the total field vanishes on the boundary. We propose a uniquely solvable first kind integral equation formulation of the problem, which amounts to a requirement that the normal derivative of the Green's representation formula for the total field vanish on a horizontal line below the scattering surface. We then discuss the numerical solution by Galerkin's method of this (ill-posed) integral equation. We point out that, with two particular choices of the trial and test spaces, we recover the so-called SC (spectral-coordinate) and SS (spectral-spectral) numerical schemes of DeSanto et al., Waves Random Media, 8, 315-414 1998. We next propose a new Galerkin scheme, a modification of the SS method that we term the SS* method, which is an instance of the well-known dual least squares Galerkin method. We show that the SS* method is always well-defined and is optimally convergent as the size of the approximation space increases. Moreover, we make a connection with the classical least squares method, in which the coefficients in the Rayleigh expansion of the solution are determined by enforcing the boundary condition in a least squares sense, pointing out that the linear system to be solved in the SS* method is identical to that in the least squares method. Using this connection we show that (reflecting the ill-posed nature of the integral equation solved) the condition number of the linear system in the SS* and least squares methods approaches infinity as the approximation space increases in size. We also provide theoretical error bounds on the condition number and on the errors induced in the numerical solution computed as a result of ill-conditioning. Numerical results confirm the convergence of the SS* method and illustrate the ill-conditioning that arises.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The book is a study of the New Party formed by Sir Oswald Mosley in 1931 following his leaving the Labour Party and prior to his forming the British Union of Fascists. It examines Mosley's transition from socialism to fascism within the wider context of British politics between the wars.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Groups of circular to oval enclosed depressions in soft sediments of Pleistocene age are relatively common in north-west Europe. These features are normally interpreted as being either glacial or periglacial in origin. Where these features are developed in glacial sediments, a glacial (and specifically ‘kettle hole’) genesis is considered most likely. Some groups of features, however, have been re-interpreted as being periglacial in origin and are thought to be the remains of cryogenic mounds (former pingos or palsas/lithalsas). The problem at many sites, of course, is correct identification and previously this was often resolved through extensive trenching of the sediments. The use of geophysics in the form of electrical resistivity tomography and ground probing radar, however, can aid investigation and interpretation and is less invasive. A group of enclosed depressions in the Letton area of Herefordshire within the Last Glacial Maximum ice limit (Late Devensian) have been investigated in this way. The morphology and internal structure of the features and their existence in glaciolacustrine sediments of Late Devensian age strongly suggests that these depressions are kettle holes resulting from ice block discharge into a shallow lakes or lakes, and hence a glacial origin is supported. The lack of any ramparts surrounding the depressions (at the surface or any evidence of these at depth) and the fact that they do not overlap (‘mutually interfere’) indicates that they are not the remains of cryogenic mounds.