999 resultados para agonista alfa-2
Resumo:
Measurements of the sphericity of primary charged particles in minimum bias proton-proton collisions at root s = 0.9, 2.76 and 7 TeV with the ALICE detector at the LHC are presented. The observable is measured in the plane perpendicular to the beam direction using primary charged tracks with p(T) > 0.5 GeV/c in vertical bar eta vertical bar < 0.8. The mean sphericity as a function of the charged particle multiplicity at mid-rapidity (N-ch) is reported for events with different p(T) scales ("soft" and "hard") defined by the transverse momentum of the leading particle. In addition, the mean charged particle transverse momentum versus multiplicity is presented for the different event classes, and the sphericity distributions in bins of multiplicity are presented. The data are compared with calculations of standard Monte Carlo event generators. The transverse sphericity is found to grow with multiplicity at all collision energies, with a steeper rise at low N-ch, whereas the event generators show an opposite tendency. The combined study of the sphericity and the mean p(T) with multiplicity indicates that most of the tested event generators produce events with higher multiplicity by generating more back-to-back jets resulting in decreased sphericity (and isotropy). The PYTHIA6 generator with tune PERUGIA-2011 exhibits a noticeable improvement in describing the data, compared to the other tested generators.
Resumo:
In this Letter we report the first results on pi(+/-), K-+/-, p, and (p) over bar production at midrapidity (vertical bar y vertical bar < 0.5) in central Pb-Pb collisions at root s(NN) = 2.76 TeV, measured by the ALICE experiment at the LHC. The p(T) distributions and yields are compared to previous results at root s(NN) = 200 GeV and expectations from hydrodynamic and thermal models. The spectral shapes indicate a strong increase of the radial flow velocity with root s(NN), which in hydrodynamic models is expected as a consequence of the increasing particle density. While the K/pi ratio is in line with predictions from the thermal model, the p/pi ratio is found to be lower by a factor of about 1.5. This deviation from thermal model expectations is still to be understood.
Resumo:
The production of the prompt charm mesons D-0, D+, D*(+), and their antiparticles, was measured with the ALICE detector in Pb-Pb collisions at the LHC, at a centre-of-mass energy root s(NN) = 2.76 TeV per nucleon-nucleon collision. The p(t)-differential production yields in the range 2 < p(t) < 16 GeV/c at central rapidity, vertical bar y vertical bar < 0.5, were used to calculate the nuclear modification factor R-AA with respect to a proton-proton reference obtained from the cross section measured at root s = 7 TeV and scaled to root s = 2.76 TeV. For the three meson species, R-AA shows a suppression by a factor 3-4, for transverse momenta larger than 5 GeV/c in the 20% most central collisions. The suppression is reduced for peripheral collisions.
Resumo:
Il progetto di ricerca di questa tesi è stato focalizzato sulla sintesi di tre classi di molecole: β-lattami, Profeni e α-amminonitrili, utilizzando moderne tecniche di sintesi organica, metodologie ecosostenibili e strategie biocatalitiche. I profeni sono una categoria di antiinfiammatori molto diffusa e in particolare abbiamo sviluppato e ottimizzato una procedura in due step per ottenere (S)-Profeni da 2-arilpropanali raceme. Il primo step consiste in una bioriduzione delle aldeidi per dare i relativi (S)-2-Aril Propanoli tramite un processo DKR mediato dall’enzima Horse Liver Alcohol Dehydrogenase. Il secondo, l’ossidazione a (S)-Profeni, è promossa da NaClO2 e TEMPO come catalizzatore. Con lo scopo di migliorare il processo, in collaborazione con il gruppo di ricerca di Francesca Paradisi all’University College Dublino abbiamo immobilizzato l’enzima HLADH, ottenendo buone rese e una migliore enantioselettività. Abbiamo inoltre proposto un interessante approccio enzimatico per l’ossidazione degli (S)-2-Aril Propanoli utilizzando una laccasi da Trametes Versicolor. L’anello β-lattamico è un eterociclo molto importante, noto per essere un interessante farmacoforo. Abbiamo sintetizzato nuovi N-metiltio beta-lattami, che hanno mostrato un’attività antibatterica molto interessante contro ceppi resistenti di Staphilococcus Aureus prelevati da pazienti affetti da fibrosis cistica. Abbiamo poi coniugato gruppi polifenolici a questi nuovi β-lattami ottenendo molecule antiossidanti e antibatteriche, cioè con attività duale. Abbiamo poi sintetizzato un nuovo ibrido retinoide-betalattame che ha indotto differenziazione si cellule di neuroblastoma. Abbiamo poi sfruttato la reazione di aperture dell’anello monobattamico tramite enzimi idrolitici, con lo scopo di ottenere β-amminoacidi chirali desimmetrizzati come il monoestere dell’acido β–amminoglutammico. Per quando riguarda gli α-amminonitrili, è stato sviluppato un protocollo di Strecker. Le reazioni sono state molto efficienti utilizzando come fonte di cianuro l’acetone cianidrina in acqua, utilizzando differenti aldeidi e chetoni, ammine primarie e secondarie. Per mettere a punto una versione asimmetrica del protocollo, abbiamo usato ammine chirali con lo scopo di ottenere nuovi α-amminonitrili chirali.
Resumo:
A genomic biomarker identifying patients likely to benefit from drotrecogin alfa (activated) (DAA) may be clinically useful as a companion diagnostic. This trial was designed to validate biomarkers (improved response polymorphisms (IRPs)). Each IRP (A and B) contains two single nucleotide polymorphisms that were associated with a differential DAA treatment effect.
Resumo:
BACKGROUND Nebulized surfactant therapy has been proposed as an alternative method of surfactant administration. The use of a perforated vibrating membrane nebulizer provides a variety of advantages over conventional nebulizers. We investigated the molecular structure and integrity of poractant alfa pre- and post-nebulization. METHOD Curosurf® was nebulized using an Investigational eFlow® Nebulizer System. Non-nebulized surfactant ("NN"), recollected surfactant droplets from nebulization through an endotracheal tube ("NT") and nebulization of surfactant directly onto a surface ("ND") were investigated by transmission electron microscopy. Biophysical characteristics were assessed by the Langmuir-Wilhelmy balance and the Captive Bubble Surfactometer. RESULTS Volume densities of lamellar body-like forms (LBL) and multi-lamellar forms (ML) were high for "NN" and "NT" samples (38.8% vs. 47.7% for LBL and 58.2% vs. 47.8% for ML). In the "ND" sample, we found virtually no LBL's, ML's (72.6%) as well as uni-lamellar forms (16.4%) and a new structure, the "garland-like" forms (9.4%). Surface tension for "NN" and "NT" was 23.33 ± 0.29 and 25.77 ± 1.12 mN/m, respectively. Dynamic compression-expansion cycling minimum surface tensions were between 0.91 and 1.77 mN/m. CONCLUSION The similarity of surfactant characteristics of nebulized surfactant via a tube and the non-nebulized surfactant suggests that vibrating membrane nebulizers are suitable for surfactant nebulization. Alterations in surfactant morphology and characteristics after nebulization were transient. A new structural subtype of surfactant was identified. Pediatr Pulmonol. 2014; 49:348-356. © 2013 Wiley Periodicals, Inc.
Resumo:
Fil: Roig, Arturo Andrés.
Resumo:
Fil: Añón, Valeria. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
Fil: Añón, Valeria. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
Fil: Añón, Valeria. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
The Tara Oceans Expedition (2009-2013) sampled the world oceans on board a 36 m long schooner, collecting environmental data and organisms from viruses to planktonic metazoans for later analyses using modern sequencing and state-of-the-art imaging technologies. Tara Oceans Data are particularly suited to study the genetic, morphological and functional diversity of plankton. The present data set provides continuous measurements made with an Aquatic Laser Fluorescence Analyzer (ALFA) (Chekalyuk et al., 2014), connected in-line to the TARA flow through system during 2013. The ALFA instrument provides dual-wavelength excitation (405 and 514 nm) of laser-stimulated emission (LSE) for spectral and temporal analysis. It offers in vivo fluorescence assessments of phytoplankton pigments, biomass, photosynthetic yield (Fv/Fm), phycobiliprotein (PBP)-containing phytoplankton groups, and chromophoric dissolved organic matter (CDOM) (Chekalyuk and Hafez, 2008; 2013A). Spectral deconvolution (SDC) is used to assess the overlapped spectral bands of aquatic fluorescence constituents and water Raman scattering (R). The Fv/Fm measurements are spectrally corrected for non-chlorophyll fluorescence background produced by CDOM and other constituents (Chekalyuk and Hafez, 2008). The sensor was cleaned weakly following the manufacturer recommended protocol.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.