1000 resultados para Teoría de la reacción en cadena


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Transmissible venereal tumor (TVT) is a neoplasia that develops naturally in dogs. It can be easily transplanted, which demonstrates its ability to spread from animal to animal. Since the Linr-1/c-MYC rearrangement in TVT cells had not been studied at the Veterinary Hospital of the Veterinary School, Unesp in Botucatu, SP, this study aimed to detect this genetic alteration specific to this kind of tumor by means of the polymerase chain reaction (PCR). Twenty dogs with cytological diagnosis of TVT were used. Samples of neoplastic cells were collected to determine the presence of the Line-1/c-MYC marker. The rearrangement characterized by 340bp amplicons did not vary, in agreement with previous studies using the same methodology. This contributed to a more precise identification of persistent tumor cells in cases in which gross or microscopical detection was not possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo discute, a la luz de la teoría tributaria, la manera de calcular el impuesto al valor agregado (IVA) de acuerdo con el Artículo 447 del Estatuto Tributario colombiano. El análisis teórico muestra que la implementación del IVA en Colombia no permite explotar todas las ventajas que el impuesto tiene en la teoría. En particular, la práctica colombiana induce cascadas tributarias y evita solo parcialmente las distorsiones en precios de bienes intermedios. A manera de ilustración, presentamos también una simulación numérica para mostrar la magnitud del efecto de cascadas tributarias en el IVA colombiano. En este sentido, si bien el impuesto es claramente superior a un impuesto a las ventas en cada etapa de la cadena productiva, es bastante inferior al IVA teórico, resultando en tasas de tributación efectiva que pueden ser el doble de las nominales. El documento demuestra, además, que la diferencia que se genera en precios según se use el método colombiano o el teórico no genera diferencia en el recaudo real cuando el impuesto se aplica a todos los bienes. Es decir, mientras que el efecto de las cascadas será regresivo, el recaudo real no presentará variaciones.  

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El campo filosófico argentino tiende a profesionalizarse hacia fines de la década del diez, en un contexto de fuerte efervescencia intelectual ligado a las repercusiones de la Primera Guerra Mundial y el inicio de la Reforma Universitaria. El presente trabajo reconstruye la disputa, producida en esos años decisivos, entre quienes adhieren a una filosofía positivista y quienes se proponen introducir las nuevas corrientes antipositivistas, para luego concentrarse en el intento de la "reacción antipositivista" de establecer una formación filosófica que se preocupa fuertemente por las cuestiones estéticas y éticas, y trama una estrecha alianza con la literatura

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El campo filosófico argentino tiende a profesionalizarse hacia fines de la década del diez, en un contexto de fuerte efervescencia intelectual ligado a las repercusiones de la Primera Guerra Mundial y el inicio de la Reforma Universitaria. El presente trabajo reconstruye la disputa, producida en esos años decisivos, entre quienes adhieren a una filosofía positivista y quienes se proponen introducir las nuevas corrientes antipositivistas, para luego concentrarse en el intento de la "reacción antipositivista" de establecer una formación filosófica que se preocupa fuertemente por las cuestiones estéticas y éticas, y trama una estrecha alianza con la literatura

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El campo filosófico argentino tiende a profesionalizarse hacia fines de la década del diez, en un contexto de fuerte efervescencia intelectual ligado a las repercusiones de la Primera Guerra Mundial y el inicio de la Reforma Universitaria. El presente trabajo reconstruye la disputa, producida en esos años decisivos, entre quienes adhieren a una filosofía positivista y quienes se proponen introducir las nuevas corrientes antipositivistas, para luego concentrarse en el intento de la "reacción antipositivista" de establecer una formación filosófica que se preocupa fuertemente por las cuestiones estéticas y éticas, y trama una estrecha alianza con la literatura

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los análisis sobre estrategias y herramientas de la Cooperación Internacional para el Desarrollo (CID) vienen centrando su atención en la cuestión relativa a la participación real de los actores implicados, como variable necesaria para la pertinencia e idoneidad del impacto de las intervenciones (Thérien, 2002; de Haan, 2009a y 2009b; OCDE, 2011). En la actualidad existe un consenso generalizado sobre la importancia de la participación de los “stakeholders” en los proceso de desarrollo, como se puede evidenciar en la definición de Desarrollo Humano Sostenible o en los postulados de la Declaración de París, aunque no siempre ha sido así y en la práctica se encuentren más límites. La participación ha sido central en las reflexiones que se han dado desde los diversos paradigmas y enfoques poniendo en cuestión las relaciones de poder o las relaciones funcionales habitualmente presentes en lacadena de la ayuda”1. Esta tendencia también se ha plasmado en la emergencia de enfoques participativos en la práctica evaluativa que, por su naturaleza política, implican un trabajo de reflexión conjunta que debe involucrar a los diferentes actores implicados para que el proceso tenga legitimidad y sea de utilidad social (Monnier, 1995). La cooperación española otorga gran importancia al proceso de evaluación y reconoce la necesidad de integrar la participación como un pilar fundamental dentro de la misma: “La implicación de los políticos, gestores y técnicos en el proceso de evaluación, y la participación de las contrapartes y beneficiarios son condiciones indispensables para poder evaluar una intervención” (MAEC‐SECI, 2007ª:26)...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación consiste en determinar las aplicaciones existentes de las teorías del caos y las teorías de la complejidad en la cadena de suministro del sector agroindustrial colombiano. Además, tiene como propósito describir el sector de la agroindustria y la cadena de suministro, identificar los modelos de caos y complejidad y posteriormente determinar cuáles de éstos son aplicables al sector. Se define el caos como una sub-disciplina de las matemáticas que estudia sistemas complejos o dinámicos y tiene inmerso implicaciones filosóficas; por otra parte complejidad es la cualidad que adquiere un sistema en el que hay diversos componentes relacionados. Se ha identificado que en el ámbito colombiano existen diferentes estudios enfocados en la construcción de modelos agroindustriales, donde se adopta el concepto de complejidad para calificar el atributo de dichos modelos que involucran la armonización e integración de diferentes actores, desde los productores hasta los consumidores. En este estudio se emplea un estudio monográfico de tipo documental teniendo como unidad de análisis la cadena de suministro del sector agroindustrial. Los resultados indican que las teorías del caos y complejidad se encuentran presentes dentro de la cadena de suministros del sector agroindustrial colombiano, ya que en ella se ocurre la interconexión entre productores, procesadores y comercializadores, interactuando entre ellos y presentando alteraciones en su comportamiento económico a lo largo del tiempo en función de variaciones de las condiciones iniciales influenciadas por variables macroeconómicas, ambientales, sociales y políticas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo general de esta revisión es explicar que la educación superior en Colombia necesita integrar al campo administrativo el reconocimiento y manejo de las emociones, para que la gerencia contribuya al verdadero desarrollo social sostenible. Como el campo de interés está centrado en la gerencia, se hizo uso de los aportes del marketing relacional, la teoría de creación de valor compartido y la inteligencia emocional, así como otras aproximaciones teóricas y bibliográficas que sirvieron de soporte durante el desarrollo del seminario de gerencia. Consecuentemente, los aportes de los autores soportan las razones por las cuales se requiere de una reestructuración de la gerencia para mitigar las externalidades del medio y promover el desarrollo social y económico. Finalmente, se pretendió proporcionar la información adecuada al lector acerca del tema, de forma tal que facilite la comprensión y promueva la discusión acerca de los diferentes aportes de los autores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJETIVO: Estimar la seroprevalencia a Bordetella pertussis en escolares y sus contactos escolares y familiares. MÉTODOS: Un total de 12.273 estudiantes de 12 a 15 años de edad, de 14 escuelas secundarias públicas de la Ciudad de México fueron estudiados durante los meses de Septiembre 2002 a Marzo 2003. Se tomó muestra de exudado nasofaríngeo en adolescentes con tos de más de 14 días de evolución. La infección fue confirmada por la técnica de reacción en cadena de polimerasa. Se realizó estudio de contactos escolares y familiares. RESULTADOS: La incidencia de tos fue de 5 para 1.000 estudiantes. De los 61 estudiantes con tos incluidos en la muestra, 20 (32,8%) fueron positivos para Bordetella. De los 152 contactos escolares, 16 (10,6%) resultaron positivos, y ocho tenían tos. Uno de esos contactos fue el director de una de las escuelas responsable de más del 60% de los casos positivos (12/20), quien también dio lecciones a diez de los estudiantes infectados. De los 29 familiares, ocho (27,6%) fueron positivos, pertenecientes a tres familias. CONCLUSIONES: Los resultados muestran que la frecuencia de la enfermedad fue similar al comunicado en la población adolescente de otros países. Sin embargo, este trastorno no tiene necesariamente signos clínicos de la tos persistente y está sujeto a la existencia de infectados asintomáticos con Bordetella.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proyecto de investigación realizado a partir de una estancia el grupo de Biotecnología e Ingeniería de Bioprocesos del Imperial College London entre abril y julio del 2007. La catálisis enzimática es una tecnología en continua expansión en el campo de la síntesis y producción de compuestos enantioméricamente puros con actividad biológica. Concretamente las aldolasas son enzimas de gran interés industrial como biocatalizadores en síntesis asimétrica de compuestos quirales ya que catalizan la formación de enlaces C-C mediante reacciones de adición aldólica con una alta regio y estereoespecíficidad. Uno de los compuestos es el precursor de iminociclitoles, que son moléculas de gran potencial terapéutico en el tratamiento de un amplio rango de enfermedades debido a su actividad como inhibidores de glicosidasas y glicosiltransferasas. Sin embargo, para conseguir esta reacción existen problemas de solubilidad de los reactivos y productos en medios homogéneos. Una posible solución es el empleo de medios bifásicos en biorreactores de membrana. Se ha estudiado el potencial de un Biorreactor de Membrana para Biotransformaciones desarrollado en dicha reacción y, a la vez, diferentes estrategias de operación que lleven al máximo rendimiento de producto y/o faciliten su purificación tras la reacción.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Algunos filósofos no han vacilado en afirmar que la teoria de la relatividad era el relativismo aplicado a la Física. Para probar su apreciación han aducido algunas expresiones de EINSTEIN -de otros físicosno nos ocuparemos aquí-, que pueden inducir a confusión: así, por ejemplo, la afirmación de que no se puede hablar de la trayectoria deun móvil, de que en la realidad no es válida la ley de composición de ve locidades, etc. Con su acostumbrada brillantez ha dicho ORTEGA YGASSET frases como la siguiente: "Para la física de EINSTEIN, nuestro conocimiento es absoluto, la realidad es la relativa".Para ver si aquellas aprensiones son justificadas y, sobre todo, para ver si se puede admitir lo filosófico que hay en la teoría de la relatividad,vamos a someter a ésta a una dura prueba: a ser examinada por la filosofía que mejor ha sabido armonizar, a nuestro parecer, lo sensible y loideal: la filosofía escolástica, que al no apoyarse en teorías científicas, sino en la observación cierta de las cosas, podemos considerarla comoadecuado instrumento de trabajo. Entre los filósofos escolásticos nos ha parecido muy digno de tenerse en cuenta SUAREZ. El llega, efectivamente,al campo escolástico en una época de intenso renacimiento. Las grandes aportaciones medievales son sometidas por él a una aguda críticay sin integrarse en ninguna escuela, tiene la suficiente libertad de espíritu para seguir sus propios derroteros. Además, en este problema, nose aparta SUAREZ en lo esencial del sentir común de los filósofos escolásticos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación representa una actualización y extensión de los modelos matemáticos aplicados por Wickelgren y Norman (1966). Tal modelación ha partido del supuesto teórico de continuidad de la fuerza de la huella asi como del continuo de estados de respuesta de la TDS (teoria de la detección de señales). Si partimos de tales modelos, de la abundancia de resultados experimentales en este sentido y de la analogia entre el decaimiento geométrico y el aritmético, podemos estimar la función matemitica que mejor describe y predice 10s resultados. La aplicación se ha concretado en palabras de clase cerrada o palabras funcionales (pronombres, preposiciones, etc.) considerando L-K como variable independiente (L=longitud de la lista, K=posiciÓn serial). Los resultados confirman que el modelo describe de una forma precisa los datos obtenidos y la utilidad para este propósito de las medidas d', beta y las curvas MOC (característica operativa de la memoria).