1000 resultados para Procesamiento de información


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Incluye Bibliografía

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El amplío uso en la ínvestigación psicopatológica de paradigmas experimentales derivados del procesamiento de información exige el desarrollo de estímulos experimentales con adecuadas propiedades psicométricas. En el presente artículo se presentan dos conjuntos de estímulos verbales en español desarrollados para la investigación de constructos cognitivos relacionados con los trastornos de ansiedad social y depresión (p. ej., los autoesquemas depresivos y ansiosos, los nodos cognitivos de depresión y ansiedad, etc.), mediante tareas experimentales como la tarea Stroop, de anticipación semántica, de codificación autorreferente, o de decisión léxica. Estos dos conjuntos están formados por grupos de adjetivos de personalidad de valencia positiva y negativa cuyo contenido está específicamente relacionado con la depresión, la ansiedad social, con ambos trastornos (adjetivos mixtos) y con ninguno de ellos (adjetivos control). Además, los grupos de adjetivos que componen tales conjuntos no difieren entre sí en dimensiones tales como frecuencia objetiva de uso, frecuencia subjetiva de uso, imaginabilidad, emocionalidad y longitud en número de letras, lo que asegura en futuras investigaciones el control de los posibles efectos como variables extrañas de dichas dimensiones.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La Lógica de Predicados pone a nuestra disposición un lenguaje que nos permitirá formalizar expresiones del conocimiento humano haciendo explícitos los objetos y las relaciones, así como sus restricciones. Además nos proporciona un método, la deducción matemática, para obtener nuevo conocimiento a partir del antiguo. Es por ello que la lógica se convierte en una asignatura presente en los primeros cursos de distintas titulaciones, especialmente de informática, ya que proporciona una base formal de trabajo. En la actualidad existe un variado número de herramientas que pueden servir de ayuda en el aprendizaje de la lógica. El razonamiento es el proceso cognitivo por medio del cual utilizamos y aplicamos nuestro conocimiento, permitiéndonos pasar de una información a otra relacionada con esta. Sin la posibilidad de hacer inferencias, el sistema de procesamiento de información se vería obligado a tener que definir todas las situaciones puntuales y específicas con las que se tenga que enfrentar. A las sentencias de las cuales partimos en el proceso de razonamiento se les llama premisas y a la sentencia a la cual llegamos se le denomina conclusión. Las premisas junto a la conclusión forman el argumento. El concepto lógico de deducción correcta dice que de premisas verdaderas debemos obtener conclusión verdadera, es decir, no podemos aceptar que las premisas sean verdaderas y la conclusión falsa. La lógica nos proporciona métodos de cálculo que nos permiten inferir, por simple manipulación sintáctica, nuevas fórmulas a partir de las conocidas. Uno de estos métodos es la Deducción Natural , cuyo mecanismo está muy cercano al razonamiento intuitivo del ser humano. Así, de forma sencilla, a partir de las fórmulas dadas como premisas y con el único apoyo de unas reglas básicas, obtenemos determinadas conclusiones. Podemos utilizar una herramienta didáctica diseñada específicamente para enseñar a los estudiantes a realizar deducciones naturales, el Asistente para Deducción Natural (ADN). Además podemos intentar abordar el tema de la automatización de la deducción. Para ello debemos realizar pequeñas modificaciones a esta técnica (de notación, de reglas a aplicar y de estrategia a utilizar) que nos lo permita. Todos estos desarrollos teóricos dieron lugar a la aparición de la programación lógica, como paradigma de resolución de problemas basado en la lógica. Prolog es el lenguaje de programación lógica más utilizado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Entre las grandes transformaciones que ha sufrido la sociedad argentina en las últimas décadas se encuentra el fuerte proceso de expansión del sistema educativo, por el cual grandes masas de la población han logrado acceder no sólo al nivel secundario sino también al nivel superior de enseñanza. Este fuerte incremento en la matrícula superior ha sido vinculado con el acceso a este nivel educativo de capas tradicionalmente excluidas del mismo. ¿Cuál es el peso de las capas de extracción popular en la matrícula superior? El presente trabajo aporta datos a partir de un ejercicio que utiliza como fuente el procesamiento de información estadística oficial para el conjunto de la población urbana correspondiente a los años 2010 y 2012

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Entre las grandes transformaciones que ha sufrido la sociedad argentina en las últimas décadas se encuentra el fuerte proceso de expansión del sistema educativo, por el cual grandes masas de la población han logrado acceder no sólo al nivel secundario sino también al nivel superior de enseñanza. Este fuerte incremento en la matrícula superior ha sido vinculado con el acceso a este nivel educativo de capas tradicionalmente excluidas del mismo. ¿Cuál es el peso de las capas de extracción popular en la matrícula superior? El presente trabajo aporta datos a partir de un ejercicio que utiliza como fuente el procesamiento de información estadística oficial para el conjunto de la población urbana correspondiente a los años 2010 y 2012

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Entre las grandes transformaciones que ha sufrido la sociedad argentina en las últimas décadas se encuentra el fuerte proceso de expansión del sistema educativo, por el cual grandes masas de la población han logrado acceder no sólo al nivel secundario sino también al nivel superior de enseñanza. Este fuerte incremento en la matrícula superior ha sido vinculado con el acceso a este nivel educativo de capas tradicionalmente excluidas del mismo. ¿Cuál es el peso de las capas de extracción popular en la matrícula superior? El presente trabajo aporta datos a partir de un ejercicio que utiliza como fuente el procesamiento de información estadística oficial para el conjunto de la población urbana correspondiente a los años 2010 y 2012

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La presente investigación consistió en diseñar una estructura para el procesamiento de información contable del área de la construcción, proveyendo además de una herramienta útil para la toma de decisiones, con el objeto de minimizar y controlar los costos e incrementar la rentabilidad al término del proyecto; reforzándola mediante el manejo de material bibliográfico como: libros, revistas, tesis, CDS, apuntes e internet. A través de la aplicación de este tema se logrará dotar de un sistema contable que facilite un correcto análisis e interpretación de la información para la acertada toma de decisiones. Es así que durante el desarrollo del trabajo se necesitará contar con una comprensión clara de lo que constituye el contrato para la fabricación de un activo o un conjunto de activos, que están íntimamente relacionados entre sí o son interdependientes en términos de su diseño, tecnología y función, o bien en relación con su último destino o utilización (Contrato de Construcción) y de la lista de cuentas que definen la información de la obra, de acuerdo al detalle que se utilice, dependiendo de la complejidad del proyecto (Plan de Cuentas).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Los consumidores tienen capacidades limitadas para evaluar toda la información que se incluye en etiquetas de alimentos, y generalmente difieren en el estilo cognitivo que determina las estrategias de procesamiento de información en situaciones de toma de decisión. El objetivo del presente trabajo fue evaluar la relación entre los estilos cognitivos dependencia e independencia de campo y la selección de etiquetas de yogur. Se trabajó con 133 participantes, quienes completaron una tarea de análisis conjunto de elección de etiquetas de yogur, diseñadas utilizando cuatro variables independientes de dos niveles cada una: contenido de grasa y azúcar, fondo gráfico de las etiquetas, sistema semáforo, y marca. Se presentaron 16 sets compuestos por dos etiquetas en una pantalla de computadora y se les pidió a los participantes que indicaran cuál preferirían consumir. Durante la tarea se registraron los movimientos oculares de los participantes. Al finalizar los participantes completaron el Test Grupal de Figuras Enmascaradas (GEFT). De acuerdo a las puntuaciones obtenidas se identificaron dos grupos de participantes: dependientes e independientes de campo. Los participantes independientes realizaron búsquedas de la información más profundas en las etiquetas que los dependientes. También se encontraron diferencias entre los grupos en la forma en que tomaron sus decisiones, atribuyendo los participantes independientes de campo mayor relevancia a la composición nutricional de los productos para tomar sus decisiones. Los resultados de este trabajo proporcionan evidencias preliminares sobre la influencia de los estilos cognitivos en la selección de alimentos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A lo largo del tiempo las necesidades de las empresas se vuelven cada vez mayores, la competencia entre ellas busca herramientas y recursos tecnológicos como los sistemas contables computarizados, que proporcionen efectividad, rapidez y confiabilidad, tanto en los procedimientos como en el procesamiento de información, que faciliten la elaboración de reportes oportunos que sirvan para la toma de decisiones importantes en el crecimiento de la empresa. Lo anterior da paso al cuestionamiento del hecho que si los sistemas actuales son los suficientemente útiles para el desarrollo de sus actividades, para ello se realizó un estudio analítico descriptivo, en el cual se utilizó como herramienta de investigación un cuestionario con preguntas abiertas y cerradas, con el objetivo de demostrar la problemática en que vive la empresa y porque el sistema computarizado actual no cumple con las necesidades que estas presentan durante sus operaciones habituales. Se tomó una muestra de 19 empresas medianas dedicadas a la compra y venta de repuestos automotrices, las cuales indicaron que el 17% no satisface las necesidades de información. Considerando lo anterior, el desarrollo de este trabajo de investigación está dedicado al análisis de todas las áreas de la empresa y de todos los aspectos importantes como lo son: el establecimiento de procedimientos o esquematización de los flujos de actividades en todas sus divisiones, tomando en cuenta la participación de los usuarios tanto operativos como analíticos para establecimiento de necesidades concretas, incluyendo en estas análisis de factores económicos, operativos y organizacionales actuales, con el fin de corregir o mejorar dichos factores para que sean compatibles con el cambio de sistemas. Todos los anteriores son solo una parte de los aspectos a considera dentro del análisis previo para establecer los requerimientos ya sea para la compra, desarrollo o mejoramiento del sistema contable computarizado. El fin de la investigación concluyó en que los sistemas que actualmente se utilizan en las medianas empresas de este ramo, son sistemas computarizados que no han sido desarrollados, sino que pertenecen a programas comercializados en el mercado; estos mismos muestran tener una cierta satisfacción para los usuarios, pero que sin embargo se ven en la necesidad de otras herramientas para el procesamiento y presentación de la información. Es por ello que se recomienda que las empresas al desarrollar o adquirir un sistema contable computarizado, deben de incluir en este proceso el análisis de los procedimientos con los que actualmente cuenta; en muchas ocasiones se busca que las empresas se adecuen a los sistemas, cuando lo correcto es que los sistemas se adecuen las operaciones de estas, ya que existen procedimientos adecuados como óptimos para las actividades que generan y que son modificados o desechados con la adquisición de nuevos programas informáticos. Para ello se propone el conocimiento de los procedimientos a través de una herramienta (adecuable) que permite que los generadores y usuarios de la información viertan y aporten conocimientos idóneos para la determinación de requerimientos en la adquisición, desarrollo o mejoramiento de sistemas contables computarizados. Lo anterior se presenta de una forma consecutiva que procede con el conocimiento general de la empresa, el establecimiento de los distintos procedimientos y la valoración de estos, lo cual al final es valorado conjuntamente, aunado a esto se presenta el estudio de distintos factores como lo son técnicos, organizacionales, operacionales y económicos; estos últimos deben de ser considerados como parte fundamental de todo análisis. La bondad de este método es que puede ser diseñado y acoplado para los distintos tipos de empresas sin importar el tamaño de estas, dejando muestras claras de las aportaciones brindadas por cada una de las partes relacionadas y a su vez deja el rastro suficiente para observar el desarrollo en la toma de decisiones con respecto al desarrollo o adquisición de programas contables computarizados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En Aerofotogrametría, el proceso de restitución (paso de imagen a formato electrónico vectorizado) es realizado por un operador humano, con asistencia de hardware y Software especializado -- Dicho proceso implica la traducción de accidentes geográficos, detalles topográficos, etc., la cual conlleva errores tanto geométricos (precisión) como topológicos (conectividad) de los datos digitales vectorizados -- Adicionalmente, aun si la vectorizacion es perfecta, los editores en etapas subsecuentes deben realizar tareas repetitivas: formateo, marcado, ajuste de convenciones, etc., que por el tamaño de los archivos de datos se hacen prolongadas y propensas al error -- Tanto los procesos de corrección como de formateo y marcado requieren además la ejecución de entradas / salidas con el usuario en el computador, proceso que es particularmente lento -- Esta investigación presenta el desarrollo de herramientas automáticas de (i) detección y corrección de errores comunes en los planos restituidos, (ii) partición y re-agrupación inteligentes de planos grandes, y (iii) formateo y marcado automático -- El desarrollo de software se hace usando el standard AIS (Application Interface Specification), lo que lo hace portable a los modeladores cuya interface AIS haya sido implementada -- El proyecto se desarrolla para la firma AeroEstudios LTDA de Colombia, la cual lo ha incorporado a sus herramientas de procesamiento de información digital

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La carencia de unmodelo bien definido de representaciónde la informaciónen la web ha traído consigoproblemas de cara a diversosaspectos relacionados con suprocesamiento. Para intentarsolucionarlos, el W3C, organismoencargado de guiar la evoluciónde la web, ha propuestosu transformación hacia unanueva web denominada websemántica. En este trabajo sepresentan las posibilidades queofrece este nuevo escenario, asícomo las dificultades para suconsecución, prestando especialatención a las ontologías,herramientas de representacióndel conocimiento fundamentalespara la web semántica. Porúltimo, se analiza el papel delprofesional de la biblioteconomíay documentación en estenuevo entorno.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias con Acentuación en Cognición y Educación)