186 resultados para Rhodococcus equi
Resumo:
Acylamidohydrolases from higher plants have not been characterized or cloned so far. AtAMI1 is the first member of this enzyme family from a higher plant and was identified in the genome of Arabidopsis thaliana based on sequence homology with the catalytic-domain sequence of bacterial acylamidohydrolases, particularly those that exhibit indole-3-acetamide amidohydrolase activity. AtAMI1 polypeptide and mRNA are present in leaf tissues, as shown by immunoblotting and RT-PCR, respectively. AtAMI1 was expressed from its cDNA in enzymatically active form and exhibits substrate specificity for indole-3-acetamide, but also some activity against l-asparagine. The recombinant enzyme was characterized further. The results show that higher plants have acylamidohydrolases with properties similar to the enzymes of certain plant-associated bacteria such as Agrobacterium-, Pseudomonas- and Rhodococcus-species, in which these enzymes serve to synthesize the plant growth hormone, indole-3-acetic acid, utilized by the bacteria to colonize their host plants. As indole-3-acetamide is a native metabolite in Arabidopsis thaliana, it can no longer be ruled out that one pathway for the biosynthesis of indole-3-acetic acid involves indole-3-acetamide-hydrolysis by AtAMI1.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
Mainly based on various inhibitor studies previously performed, amidases came to be regarded as sulfhydryl enzymes. Not completely satisfied with this generally accepted interpretation, we performed a series of site-directed mutagenesis studies on one particular amidase of Rhodococcus rhodochrous J1 that was involved in its nitrile metabolism. For these experiments, the recombinant amidase was produced as the inclusion body in Escherichia coli to greatly facilitate its recovery and subsequent purification. With regard to the presumptive active site residue Cys203, a Cys203 → Ala mutant enzyme still retained 11.5% of the original specific activity. In sharp contrast, substitutions in certain other positions in the neighborhood of Cys203 had a far more dramatic effect on the amidase. Glutamic acid substitution of Asp191 reduced the specific activity of the mutant enzyme to 1.33% of the wild-type activity. Furthermore, Asp191 → Asn substitution as well as Ser195 → Ala substitution completely abolished the specific activity. It would thus appear that, among various conserved residues residing within the so-called signature sequence common to all amidases, the real active site residues are Asp191 and Ser195 rather than Cys203. Inasmuch as an amide bond (CO-NH2) in the amide substrate is not too far structurally removed from a peptide bond (CO-NH-), the signature sequences of various amidases were compared with the active site sequences of various types of proteases. It was found that aspartic acid and serine residues corresponding to Asp191 and Ser195 of the Rhodococcus amidase are present within the active site sequences of aspartic proteinases, thus suggesting the evolutionary relationship between the two.
Resumo:
La realización de política europea de emigración se mueve en un arduo equilibrio en-tre el diálogo con la orilla sur del Mediterráneo, la política de vecindad hacia el Este y la ambigüedad de la relación entre la migración y el desarrollo. Las contradicciones de la UE en la materia son profundas pues nos hallamos ante una materia de naturaleza poliédrica y en estrecha dependencia a procesos que se están desarrollando en el orden internacional, por ello las respuestas requieren el empleo de instrumentos eficaces tanto en el plano interno como en el externo. Una perspectiva europea de la inmigración no puede prescindir de una pretensión de multilateralidad basada en la cooperación entre todos los actores que, de un modo u otro, participan y son parte activa de los procesos migratorios. Ello requiere abordar estrategias para el desarrollo de carácter amplio, que incidan sobre las causas que motivas los flujos migratorios, generando oportunidades y expectativas de vida digna en los países de origen. Para ello es menester apurar las posibilidades abiertas por el Tratado de Lisboa insistiendo en la aplicación del principio de solidaridad, fomentando la responsabilidad compartida y teniendo muy presentes los derechos fundamentales previstos en la Carta Europea de Derechos Fundamentales. Habida cuenta que los Estados miembros no son autosuficientes para resolver eficientemente las cuestiones derivadas del control de las fronteras, del asilo y de la inmigración resulta menester que la UE diseñe una política común de manera coordina-da con ellos, de manera que se sientan suficientemente acompañados y respaldados. A este respecto la Agenda Europea de Migración propone acciones tales como la lucha contra la migración irregular, los traficantes de seres humanos y la protección de las fronteras exteriores de Europa que deben ir acompañadas de una eficaz política común de asilo, así como una nueva política europea en materia de migración legal. Al mismo tiempo la política de redistribución no debe considerarse como una opción desinteresa-da o altruista sino como una respuesta común que impide las actuaciones unilaterales de ciertos Estados miembros para reducir los flujos migratorios. Por estas razones resulta de suma importancia restar protagonismo a las acciones me-ramente represivas y que la UE progrese en su intervención en un sector dominado por las competencias exclusivas de los Estados miembros. Dicha intervención puede reali-zarse eficazmente en dos líneas de actuación de carácter complementario. De un lado, a través de un enfoque transversal, que favorezca la cooperación con terceros países, la gestión integrada de las fronteras exteriores y una política justa en materia de repatria-ciones, de canalización de la emigración legal y de integración de los inmigrantes en la sociedad. De otro lado, con el concurso del principio de solidaridad y del reparto equi-tativo de la responsabilidad entre los Estados miembros, extensivo al aspecto financiero (art. 80 TFUE), fomentando entre ellos una cooperación más eficaz el reparto de res-ponsabilidades. Ambas líneas serán susceptibles de garantizar en la práctica una mejor gestión de los flujos migratorios y una mayor protección de los derechos fundamentales de los ciudadanos extranjeros.
Resumo:
Morphine-6beta-D-glucuronide (M6G) is an analgesically active metabolite of morphine, accounting for approximate to10% of the morphine dose when administered by systemic routes to humans. Although M6G is more hydrophilic than morphine, it crosses the blood-brain barrier, albeit relatively slowly. For this reason, it is generally thought that, after chronic dosing, M6G contributes significantly to the analgesic effects of systemically administered morphine. Owing to its polar nature, M6G is cleared from the systemic circulation primarily via renal elimination. As M6G accumulates in patients with renal impairment, there is an increased risk of M6G-induced respiratory depression in renal failure patients who are being dosed chronically with systemic morphine. Consistent with its analgesic and respiratory depressant properties, M6G binds to the p-opioid receptor in a naloxone-reversible manner. Although the affinity of M6G for the mu-opioid receptor is similar to or slightly less than that of morphine, preclinical studies in rodents show that M6G is one to two orders of magnitude more potent than morphine when administered by central routes. This major discrepancy between the markedly higher intrinsic antinociceptive potency of M6G relative to morphine, despite their similar p-opioid receptor binding affinities, is difficult to reconcile. It has been proposed that M6G mediates its pain-relieving effects through a novel 'M6G opioid receptor', while others have argued that M6G may have higher efficacy than morphine for transduction of intracellular events. When administered by parenteral routes to rodents, M6G's antinociceptive potency is no more than twofold higher than morphine. In humans, the analgesic efficacy and respiratory depressant potency of M6G relative to morphine have been assessed in a number of short-term studies involving the intrathecal or intravenous routes of administration. For example, in hip replacement patients, intrathecal M6G provided excellent postoperative analgesia but the occurrence of late respiratory depression in 10% of these patients raised serious concern about safety. In postoperative patients, intravenous M6G administered by means of patient-controlled analgesia (PCA), or bolus plus PCA, produced no analgesia in one study and limited analgesia in another. Similarly, there was a lack of significant analgesia in healthy volunteers who received intravenous M6G for the alleviation of experimental pain (carbon dioxide applied to the nasal mucosa). In contrast, satisfactory analgesia was produced by bolus doses of intravenous M6G administered to patients with cancer pain, and to healthy volunteers with experimentally-induced ischaemic, electrical or thermal (ice water) pain. Studies to date in healthy volunteers suggest that intravenous M6G may be a less potent respiratory depressant and have a lower propensity for producing nausea and vomiting than morphine. However, it is unclear whether equi-analgesic doses of M6G and morphine were compared. Clearly, more extensive short-term trials, together with studies involving chronic M6G administration, are necessary before the potential clinical utility of M6G as an analgesic drug in its own right can be determined.
Resumo:
A soil suspension was used as a source to initiate the development of microbial communities in flow cells irrigated with 2,4-dichlorophenoxyacetic acid (2,4-D) (25 mu g ml(-1)). Culturable bacterial members of the community were identified by 16S rRNA gene sequencing and found to be members of the genera Pseudomonas, Burkholderia, Collimonas and Rhodococcus. A 2,4-D degrading donor strain, Pseudomonas putida SM 1443 (pJP4::gfp), was inoculated into flow cell chambers containing 2-day old biofilm communities. Transfer of pJP4::gfp from the donor to the bacterial community was detectable as GFP fluorescing cells and images were captured using confocal scanning laser microscopy (GFP fluorescence was repressed in the donor due to the presence of a chromosomally located lacl(q) repressor gene). Approximately 5-10 transconjugant microcolonies, 20-40 mu m in diameter, could be seen to develop in each chamber. A 2,4-D degrading transconjugant strain was isolated from the flow cell system belonging to the genus Burkholderia.
Resumo:
A disappointing feature of conventional methods for detecting association between DNA variation and a phenotype of interest is that they tell us little about the hidden pattern of linkage disequilibrium (LD) with the functional variant that is actually responsible for the association. This limitation applies to case-control studies and also to the transmission/disequilibrium test (TDT) and other family-based association methods. Here we present a fresh perspective on genetic association based on two novel concepts called 'LD squares' and 'equi-risk alleles'. These describe and characterize the different patterns of gametic LD which underlie genetic association. These concepts lead to a general principle - the Equi-Risk Allele Segregation Principle - which captures the way in which underlying LD patterns affect the transmission patterns of genetic variants associated with a phenotype. This provides a basis for distinguishing the hidden LD patterns and might help to locate the functional variants responsible for the association.
Resumo:
A molecular approach was used to genetically characterize 5 species (Aoruroides queenslandensis. Blattophila sphaerolaima, Cordonicola gibsoni, Desmicola ornato and Leidynemella fusiformis) belonging to the superfamily. Thelastomatoidea fi (Nematoda: Oxyurida), a group of pinworms that parasitizes terrestrial arthropods. The D3 domain of the large subunit Of nuclear ribosomal RNA (LSU) was sequenced for individual specimens, and the analysis of the sequence data allowed the genetic relationships of the 5 species to be studied dagger. The sequence variation in the D3 domain within individual species (0-1-8%) was significantly less than the differences among species (4(.)3-12(.)4%). Phylogenetic analyses, Using maximum parsimony, maximum likelihood, and neighbour-joining, tree-building methods, established relationships among the 5 species of Thelastomatoidea and Oxyuris equi (a species of the order Oxyurida). The molecular approach employed provides the prospect for developing DNA tools for the specific identification of the Thelastomatoidea, irrespective of developmental stage and sex, as a basis for systematic, ecological and/or population genetic investigations of members within this superfamily.
Resumo:
A total of 188 carbohydrate polymer-producing bacterial strains were isolated from recycled sludge of five seafood processing plants. Among three selected isolates, identified as Enterobacter cloacae WD7, Enterobacter agglomerans WD50 and Pseudomonas alcaligenes WD22. E. cloacae WD7 generated a viscous culture broth exhibiting the highest flocculating activity and a crude polymer yield of 2.27 g/L after 3 days cultivation. Partial purification of this polymer was performed by precipitation with 95% ethanol, dialysis and freeze-drying. It was characterized as an acidic heteropolysaccharide, composed of neutral sugars (29.4%), uronic acids (14.2%) and amino sugars (0.93%). The functional group analysis by FT-IR spectroscopy showed the presence of hydroxyl, carboxyl, carbonyl and methoxyl groups. Thermal analysis by DSC showed the crystalline transition and the crystalline melting point (T-m) at 300 degrees C. This polysaccharide was soluble in water and insoluble in any organic solvents tested; gelation occurred under alkaline conditions in the presence of divalent cations in which copper as CuSO4 gave the best result. Studies on the flocculation property revealed that this polysaccharide was stable at 4-60 degrees C and pH 5-7. The optimal concentrations for the flocculating activity were 2 mg/L polysaccharide and 40 mM CaCl2 which played the synergistic effect on kaolin flocculation. Moreover, this polysaccharide could flocculate the kaolin suspension over a wide range of pH (pH 2-8) and temperature (4-50 degrees C) tested in the presence of CaCl2. (c) 2006 Elsevier Ltd. All rights reserved.
Resumo:
Oxycodone is a potent opioid agonist that has been in clinical use for many decades. However, it has only recently been appreciated that oxycodone has a distinctly different pharmacology from that of morphine. Importantly, when administered directly into the lateral ventricle of the rat brain, oxycodone produces dose-dependent, naloxone-reversible pain relief in an acute pain model, indicating that oxycodone itself has intrinsic anti-nociceptive effects (Leow & Smith, 1994). However, oxycodone's intrinsic pain-relieving effects are not attenuated by naloxonazine (-selective opioid antagonist) in a dose that completely blocks the anti-nociceptive effects of an equi-analgesic dose of morphine. Furthermore, the anti-nociceptive effects of intracerebroventricular (icv) oxycodone are completely attenuated by nor-binaltorphimine (-selective opioid antagonist) in a dose that has no significant effect on the levels of anti-nociception evoked by an equi-effective dose of morphine (Ross & Smith, 1997).
Resumo:
Clinical trials have shown temozolomide to be an effective agent for treatment of malignant melanoma. In order to investigate its suitability for delivery via the skin, a series of temozolomide esters was synthesized as prodrugs. In vitro assays demonstrated temozolomide, temozolomide acid and the hexyl ester equi-effective against selected cancer cell lines. The susceptibility of the esters to enzyme hydrolysis and their effectiveness for application to the skin were investigated. The esters effectively diffuse through rat skin and the hexyl ester demonstrated profound potency for penetrating through skin. Topical application of 5% (w/v) hexyl ester in DMSO solution on a mouse model demonstrated a significant inhibition of tumor growth. These results suggest that temozolomide esters could be an effective alternative to temozolomide in the treatment of skin cancer. © 2005 Elsevier Ireland Ltd. All rights reserved.
Resumo:
Many aspects of vision have been investigated in developmental dyslexia. Some research suggests deficits in vergence control (e.g. Buzzelli, 1991, Optom. Vision Sci. 68, 842±846), although ability to control vergence across saccades has not yet been investigated. We have explored this question indirectly using Enright's (1996 Vision Res. 36, 307±312.) sequential stereopsis task. The task requires observers to set two adjacent targets (whose textures cannot be resolved simultaneously if either is fixated) to appear equi-distant. Enright has argued that sequential stereopsis stereoacuity thresholds offer an indication of vergence control across saccades. We report two experiments using a total of 17 dyslexic and 18 control adults. Performance was measured on a sequential stereopsis task and an ordinary `simultaneous' stereopsis task. No significant differences between groups were found. However, whereas practice of the sequential task lowered control group thresholds on the simultaneous task, for the dyslexic group it significantly raised thresholds, suggesting that visual fatigue is especially important in investigations of visual functions in dyslexia. Although the small samples used limit conclusions at this stage, the main sequential stereopsis results suggest that, if Enright is correct, dyslexic adults can show normal vergence control across saccades.
Resumo:
The kinematic mapping of a rigid open-link manipulator is a homomorphism between Lie groups. The homomorphisrn has solution groups that act on an inverse kinematic solution element. A canonical representation of solution group operators that act on a solution element of three and seven degree-of-freedom (do!) dextrous manipulators is determined by geometric analysis. Seven canonical solution groups are determined for the seven do! Robotics Research K-1207 and Hollerbach arms. The solution element of a dextrous manipulator is a collection of trivial fibre bundles with solution fibres homotopic to the Torus. If fibre solutions are parameterised by a scalar, a direct inverse funct.ion that maps the scalar and Cartesian base space coordinates to solution element fibre coordinates may be defined. A direct inverse pararneterisation of a solution element may be approximated by a local linear map generated by an inverse augmented Jacobian correction of a linear interpolation. The action of canonical solution group operators on a local linear approximation of the solution element of inverse kinematics of dextrous manipulators generates cyclical solutions. The solution representation is proposed as a model of inverse kinematic transformations in primate nervous systems. Simultaneous calibration of a composition of stereo-camera and manipulator kinematic models is under-determined by equi-output parameter groups in the composition of stereo-camera and Denavit Hartenberg (DH) rnodels. An error measure for simultaneous calibration of a composition of models is derived and parameter subsets with no equi-output groups are determined by numerical experiments to simultaneously calibrate the composition of homogeneous or pan-tilt stereo-camera with DH models. For acceleration of exact Newton second-order re-calibration of DH parameters after a sequential calibration of stereo-camera and DH parameters, an optimal numerical evaluation of DH matrix first order and second order error derivatives with respect to a re-calibration error function is derived, implemented and tested. A distributed object environment for point and click image-based tele-command of manipulators and stereo-cameras is specified and implemented that supports rapid prototyping of numerical experiments in distributed system control. The environment is validated by a hierarchical k-fold cross validated calibration to Cartesian space of a radial basis function regression correction of an affine stereo model. Basic design and performance requirements are defined for scalable virtual micro-kernels that broker inter-Java-virtual-machine remote method invocations between components of secure manageable fault-tolerant open distributed agile Total Quality Managed ISO 9000+ conformant Just in Time manufacturing systems.
Resumo:
The present study investigated the extent of expectancy in the ability of glucose to affect cognitive performance. Using a within-subjects design, subjects (n 26) completed four experimental sessions (in counterbalanced order and after an initial practice session) during which they were given a 500 ml drink 30 min prior to completing a cognitive assessment battery. In addition, all subjects completed a baseline practice session during which they were given no drink. During two of the sessions, subjects were given a drink containing 50 g glucose and on the other two they were given a drink containing aspartame. A balanced placebo design was used, such that for half the sessions subjects were accurately informed as to the content of the drink (glucose or aspartame), whereas in the other two sessions they were misinformed as to the content of the drink. The task battery comprised a 6 min visual analogue of the Bakan vigilance task, an immediate verbal free-recall task, an immediate verbal recognition memory task and a measure of motor speed (two-finger tapping). Blood glucose and self-reported mood were also recorded at several time points during each session. Glucose administration was found to improve recognition memory times, in direct contrast to previous findings in the literature. Glucose administration also improved performance on the Bakan task (relative to the control drink), but only in sessions where subjects were informed that they would receive glucose and not when they were told that they would receive aspartame. There were no effects either of the nature of the drink or expectancy on the other measures. These results are interpreted in terms of there being some contribution of expectancy concerning the positive effects of glucose on cognition in studies which have not used an equi-sweet dose of aspartame as a control drink.
Resumo:
We present new Holocene century to millennial-scale proxies for the well-dated piston core MD99-2269 from Húnaflóadjúp on the North Iceland Shelf. The core is located in 365 mwd and lies close to the fluctuating boundary between Atlantic and Arctic/Polar waters. The proxies are: alkenone-based SST°C, and Mg/Ca SST°C estimates and stable d13C and d18O values on planktonic and benthic foraminifera. The data were converted to 60 yr equi-spaced time-series. Significant trends in the data were extracted using Singular Spectrum Analysis and these accounted for between 50% and 70% of the variance. A comparison between these data with previously published climate proxies from MD99-2269 was carried out on a data set which consisted of 14-variable data set covering the interval 400-9200 cal yr BP at 100 yr time steps. This analysis indicated that the 1st two PC axes accounted for 57% of the variability with high loadings clustering primarily into "nutrient" and "temperature" proxies. Clustering on the 100 yr time-series indicated major changes in environment at ~6350 and ~3450 cal yr BP, which define early, mid- and late Holocene climatic intervals. We argue that a pervasive freshwater cap during the early Holocene resulted in warm SST°s, a stratified water column, and a depleted nutrient supply. The loss of the freshwater layer in the mid-Holocene resulted in high carbonate production, and the late Holocene/neoglacial interval was marked by significantly more variable sea surface conditions.