974 resultados para FUT-SAT


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après le séisme qui eut lieu en Haïti le 12 janvier 2010, dont l’épicentre a été localisé non loin de la capitale, Port-au-Prince (25 km en direction sud-est), d’une magnitude Mw 7.0 et à une profondeur de 13 km, le pays s’est retrouvé dans une situation catastrophique et d’extrême pauvreté, avec des graves carences en matière de santé, nutrition, éducation et logement. Les effets du tremblement de terre ont été dévastateurs pour la population : on compte plus de 300.000 morts, presque autant de blessés et 1,3 millions de sans-abri logès dans des campements « provisoires ». Quant aux conséquences matérielles, le séisme a totalement détruit près de 100.000 maisons et endommagé près de 200.000 (source : USGS). Ce tremblement de terre a été le plus fort enregistré dans la zone depuis 1770. De plus le séisme fut perceptible dans des pays voisins comme Cuba, la Jamaïque et la République Dominicaine, où il a provoqué l’alarme et des évacuations préventives. La reconstruction du pays reste un sujet prioritaire pour la coopération internationale. Le présent projet, SISMO-HAITÍ, a été développé dans le but d’apporter la connaissance et l’information nécessaires afin de faciliter la prise de mesures préventives face au risque sismique existant, afin d’éviter qu’un éventuel futur séisme ne déclenche une nouvelle catastrophe. Dans le cas d’Haïti, aucune institution n’était chargée d’assurer une surveillance sismique, mais un contact direct a été établi avec l’Observatoire National de l’Environnement et de la Vulnérabilité (ONEV) en Haïti à travers son directeur Dwinel Belizaire Ing. M. Sc., qui est précisément celui qui a sollicité l’aide qui a motivé la présente proposition. Le but ultime de ce projet est l’étude des mesures d’atténuation du risque élevé qui demeure, contribuant ainsi au développement durable de la région. Dans cette optique, la menace sismique en Haïti a été évaluée, constituant la base sur laquelle on prétend élaborer des critères de conception parasismique pour la reconstruction du pays qui pourront être inclus dans la première version de la norme antisismique, ainsi que le risque sismique à Port-au-Prince, dont les résultats serviront de base pour élaborer les plans d’urgence face à ce risque naturel. Les objectifs spécifiques atteints sont : • Évaluation de l'aléa sismique en Haïti. On en obtient des cartes de différents paramètres de mouvement pour différentes probabilités de dépassement (ce qui suppose connaître la probabilité associée aux mouvements dus à des tremblements futurs). • Évaluation de l'effet local à Port-au-Prince et élaboration d'une carte de microzonage de la ville. • Étude de la vulnérabilité sismique locale à Port-au-Prince. • Estimation du risque sismique à Port-au-Prince. • Mesures d'atténuation du risque et de conception parasismique. Ce rapport résume les activités et les résultats obtenus a cours de l'année 2011 lors de la mise en œuvre de ce projet. Le groupe de travail est une équipe multidisciplinaire composée de chercheurs de différents établissements universitaires et de recherche (Université Polytechnique de Madrid-UPM-, Conseil Supérieur de la Recherche Scientifique (CSIC) ; U. Complutense de Madrid-UCM-, U-UA-Alicante, Almeria-UAL-U., U. Autonome de Saint-Domingue, UASD et Université de Porto Rico Mayagüez--UPRM) experts dans les diverses matières impliquées dans le projet: géologie, sismologie, génie parasismique, architecture et gestion de l'information géographique. Tous les membres de cette équipe ont travaillé ensemble tout au long de l'année, en réalisant des réunions, des ateliers de travail, des vidéoconférences, en plus d'une visite à Port-au-Prince en Juillet 2011 afin de procéder à la première collecte de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jusqu'à sa mort, en novembre 1975, le Général Franco fut, tel que le proclamaient ses pièces de monnaie, le « Caudillo d'Espagne par la grâce de Dieu » et, selon ses apologistes, il était responsable uniquement devant Dieu et l'Histoire. Bien que durant les dernières années de sa vie, sa participation directe dans les décisions politiques courantes fut assez réduite, il est pourtant certain qu'aucune décision importante ne pouvait être prise sans son consentement. Jusqu'au tout dernier moment, il conserva, grâce à la dénommée « Constitution franquiste », le pouvoir de nommer et de destituer les ministres, pouvoir qu'il utilisa toujours à sa guise. De telles prémisses conduisent à considérer logique l'utilisation du sport au service d'une idée politique. On assista alors à une tentative de mise sur pied du modèle de l'Allemagne nazie, mais il fallait tenir compte du fait que Franco n'avait jamais été disposé à construire un état totalitaire ayant un seul et unique parti, à l'image du modèle italien ou allemand. Après l'échec des puissances de l'Axe, Franco vit très clairement la nécessité d'abandonner le côté fasciste de son régime. Et, en ce qui concerne tout particulièrement le sport, Franco ne fut jamais disposé à dépenser la moindre somme d'argent dans ce domaine, comme l'avaient pourtant fait Hitler ou Mussolini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las plantas industriales de exploración y producción de petróleo y gas disponen de numerosos sistemas de comunicación que permiten el correcto funcionamiento de los procesos que tienen lugar en ella así como la seguridad de la propia planta. Para el presente Proyecto Fin de Carrera se ha llevado a cabo el diseño del sistema de megafonía PAGA (Public Address and General Alarm) y del circuito cerrado de televisión (CCTV) en la unidad de procesos Hydrocrcaker encargada del craqueo de hidrógeno. Partiendo de los requisitos definidos por las especificaciones corporativas de los grupos petroleros para ambos sistemas, PAGA y CCTV, se han expuesto los principios teóricos sobre los que se fundamenta cada uno de ellos y las pautas a seguir para el diseño y demostración del buen funcionamiento a partir de software específico. Se ha empleado las siguientes herramientas software: EASE para la simulación acústica, PSpice para la simulación eléctrica de las etapas de amplificación en la megafonía; y JVSG para el diseño de CCTV. La sonorización tanto de las unidades como del resto de instalaciones interiores ha de garantizar la inteligibilidad de los mensajes transmitidos. La realización de una simulación acústica permite conocer cómo va a ser el comportamiento de la megafonía sin necesidad de instalar el sistema, lo cual es muy útil para este tipo de proyectos cuya ingeniería se realiza previamente a la construcción de la planta. Además se comprueba el correcto diseño de las etapas de amplificación basadas en líneas de alta impedancia o de tensión constante (100 V). El circuito cerrado de televisión (CCTV) garantiza la transmisión de señales visuales de todos los accesos a las instalaciones y unidades de la planta así como la visión en tiempo real del correcto funcionamiento de los procesos químicos llevados a cabo en la refinería. El sistema dispone de puestos de control remoto para el manejo y gestión de las cámaras desplegadas; y de un sistema de almacenamiento de las grabaciones en discos duros (RAID-5) a través de una red SAN (Storage Area Network). Se especifican las diferentes fases de un proyecto de ingeniería en el sector de E&P de hidrocarburos entre las que se destaca: propuesta y adquisición, reunión de arranque (KOM, Kick Off Meeting), estudio in situ (Site Survey), plan de proyecto, diseño y documentación, procedimientos de pruebas, instalación, puesta en marcha y aceptaciones del sistema. Se opta por utilizar terminología inglesa dado al ámbito global del sector. En la última parte del proyecto se presenta un presupuesto aproximado de los materiales empleados en el diseño de PAGA y CCTV. ABSTRACT. Integrated communications for Oil and Gas allows reducing risks, improving productivity, reducing costs, and countering threats to safety and security. Both PAGA system (Public Address and General Alarm) and Closed Circuit Television have been designed for this project in order to ensure a reliable security of an oil refinery. Based on the requirements defined by corporate specifications for both systems (PAGA and CCTV), theoretical principles have been presented as well as the guidelines for the design and demonstration of a reliable design. The following software has been used: EASE for acoustic simulation; PSpice for simulation of the megaphony amplification loops; and JVSG tool for CCTV design. Acoustic for both the units and the other indoor facilities must ensure intelligibility of the transmitted messages. An acoustic simulation allows us to know how will be the performance of the PAGA system without installing loudspeakers, which is very useful for this type of project whose engineering is performed prior to the construction of the plant. Furthermore, it has been verified the correct design of the amplifier stages based on high impedance lines or constant voltage (100 V). Closed circuit television (CCTV) ensures the transmission of visual signals of all access to facilities as well as real-time view of the proper functioning of chemical processes carried out at the refinery. The system has remote control stations for the handling and management of deployed cameras. It is also included a storage system of the recordings on hard drives (RAID - 5) through a SAN (Storage Area Network). Phases of an engineering project in Oil and Gas are defined in the current project. It includes: proposal and acquisition, kick-off meeting (KOM), Site Survey, project plan, design and documentation, testing procedures (SAT and FAT), installation, commissioning and acceptance of the systems. Finally, it has been presented an estimate budget of the materials used in the design of PAGA and CCTV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Monografía, integrada en las publicaciones de la Red Temática FRUTURA, de CYTED, recoge las aportaciones de sus miembros en su tercera reunión científico-técnica, dando continuidad a las celebradas en Madrid y Sao Paulo en 2009. Se denominó “Situación actual, retos y soluciones en logística y transporte refrigerado internacional de frutas y hortalizas” y se celebró en la Universidad Politécnica de Cartagena, España, en junio de 2010. El evento se desarrolló durante tres jornadas, incluyendo el III Seminario Internacional de Transporte Frigorífico Marítimo, el I Seminario Internacional de Transporte Frigorífico Terrestre y Aéreo y el Foro Empresarial: Desafíos y Oportunidades del Intercambio Comercial Hortofrutícola España-Iberoamérica. La temática se enmarcó dentro del principal objetivo de la Red, el desarrollo de un sistema integral de mejora de la calidad y seguridad de las frutas durante la manipulación, el transporte y la comercialización, mediante nuevas tecnologías de inspección y monitorización. Las frutas y hortalizas frescas se producen frecuentemente en lugares alejados de los centros de consumo. Grandes volúmenes de productos, con frecuencia muy perecederos, se transportan diariamente a pequeñas o grandes distancias, tanto dentro de los propios países productores, como entre las naciones y Continentes. Paralelamente, los consumidores exigen de ellos una calidad cada día más elevada, no solo organoléptica, sino también nutricional, con especial garantía de la seguridad y el respeto del medio ambiente. Esto implica una alta exigencia al planificar el transporte y las operaciones omplementarias, para optimizar la calidad global y minimizar las pérdidas. Los aspectos asociados al transporte hortofrutícola en fresco, tanto en España como en Iberoamérica se abordaron a través de conferencias relacionadas con la situación en cada país participante. Así, se trataron los principales problemas y desafíos del transporte terrestre en Argentina y Uruguay, y de la exportación marítima desde Brasil, desde España (incluyendo tratamientos cuarentenarios) y desde Chile (con la modelización del envasado en atmósfera modificada a escala de pallet, los atributos de calidad en el transporte terrestre y aéreo y el seguimiento de la calidad de la fruta cortada mediante imágenes hiperespectrales). La calidad de las contribuciones recogidas en esta monografía, son un buen indicador del alto nivel científico de los miembros de la Red, cuyas aportaciones se vieron enriquecidas con el debate entre ponentes y participantes. Ello facilitó el intercambio de experiencias, la discusión de las temáticas en los diferentes ámbitos, la ampliación de conocimientos y la posibilidad de colaborar para llevar adelante nuevos avances tecnológicos. Asimismo, permitió identificar las limitaciones, problemas y desafíos que presenta el sector. Son aún muchos los condicionantes que surgen durante el transporte de productos perecederos, en especial de frutas y hortalizas, que requieren una solución técnica y económica. Durante las jornadas se realizaron diversas vistitas técnicas al Puerto de Cartagena, en sus áreas de logística, terminales y sistemas operativos de carga y descarga, contenedores isotermos y frigoríficos y cámaras frigoríficas de almacenamiento, organizadas por la Agencia Marítima Erhardt, S.A., Consignataria de buques de Cartagena (Murcia); la sede de la Autoridad Portuaria de Cartagena, donde se analizaron el desarrollo y previsiones de crecimiento de sus instalaciones portuarias en el futuro inmediato; la plataforma logística de exportación del Grupo Caliche S.A., ubicada en San Javier (Murcia) y la central hortofrutícola exportadora de cítricos y hortalizas de SAT San Cayetano, también en San Javier (Murcia). El interés por la temática de esta reunión quedó demostrado por la elevada participación durante las jornadas de empresarios, técnicos, investigadores y profesionales iberoamericanos. Pensamos que el fin último, que fue conocer en más profundidad la realidad presente del transporte terrestre, marítimo y aéreo en Iberoamérica mediante el acercamiento entre Universidades y Centros de Investigación y las Empresas del sector (exportadoras, importadoras y transportistas), se alcanzó plenamente. Deseamos agradecer al Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (AC2010-00017-00-00), a la Comunidad Autónoma de la Región de Murcia, a la Fundación Séneca de la Región de Murcia (14506/OC/10) y al Ayuntamiento de Cartagena su valiosa colaboración para la realización de este evento. Igualmente destacamos la ayuda desinteresada de los miembros del Grupo de Postrecolección y Refrigeración y del Instituto de Biotecnología Vegetal de la UPCT, quienes contribuyeron enormemente al éxito de la reunión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Satellite operators are starting to use the Ka-band (30/20 GHz) for communications systems requiring higher traffic capacity. The use of this band is expected to experience a significant growth in the next few years, as several operators have reported plans to launch new satellites with Ka-band capacity. It is worth mentioning the Ka-Sat satellite in Europe, launched in 2010, and ViaSat-1, of 2011, with coverage of USA1. Some other examples can be found in other parts of the World. Recent satellite communications standards, such as DVB-S22 or DVB-RCS3, which provide means to mitigate propagation impairments, have been developed with the objective of improving the use of the Ka-band, in comparison with previous technical standards. In the next years, the ALPHASAT satellite will bring about new opportunities4 for carrying out propagation and telecommunication experiments in the Ka- and Q/V-bands. Commercial uses are focused on the provision of high speed data communications, for Internet access and other applications. In the near future, it is expected that higher and higher data rates will also be needed to broadcast richer multimedia contents, including HD-TV, interactive content or 3D-TV. All of these services may be provided in the future by satellites of the current generation, whose life span can extend up to 2025 in some cases. Depending on local regulations, the available bandwidth for the satellite fixed and broadcasting services in the Ka-band is in excess of several hundred MHz, bidirectional, comprising more than 1 GHz for each sub-band in some cases. In this paper, the results of a propagation experiment that is being carried out at Universidad Politécnica de Madrid (UPM), Spain, are presented5. The objective of the experiment is twofold: gathering experimental time series of attenuation and analyzing them in order to characterize the propagation channel at these frequencies6. The experiment and statistical results correspond to five complete years of measurements. The experiment is described in more detail in Section II. Yearly characteristics of rain attenuation are presented in Section III, whereas Section IV is dedicated to the monthly, seasonal, and hourly characteristics. Section V covers the dynamic characteristics of this propagation effect, just before the conclusions are described in Section VI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the model named Accepting Networks of Evolutionary Processors as NP-problem solver inspired in the biological DNA operations. A processor has a rules set, splicing rules in this model,an object multiset and a filters set. Rules can be applied in parallel since there exists a large number of copies of objects in the multiset. Processors can form a graph in order to solve a given problem. This paper shows the network configuration in order to solve the SAT problem using linear resources and time. A rule representation arquitecture in distributed environments can be easily implemented using these networks of processors, such as decision support systems, as shown in the paper.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Water balance simulation in cropping systems is a very useful tool to study how water can be used efficiently. However this requires that models simulate an accurate water balance. Comparing model results with field observations will provide information on the performance of the models. The objective of this study was to test the performance of DSSAT model in simulating the water balance by comparing the simulations with observed measurements. The soil water balance in DSSAT uses a one dimensional ?tipping bucket? soil water balance approach where available soil water is determined by the drained upper limit (DUL), lower limit (LL) and saturated water content (SAT). A continuous weighing lysimeter was used to get the observed values of drainage and evapotranspiration (ET). An automated agrometeorological weather station close to the lisymeter was also used to record the climatic data. The model simulated accurately the soil water content after the optimization of the soil parameters. However it was found the inability of the model to capture small changes in daily drainage and ET. For that reason simulated cumulative values had larger errors as the time passed by. These results suggested the need to compare outputs of DSSAT and some hydrological model that simulates soil water movement with a more mechanistic approach. The comparison of the two models will allow us to find which mechanism can be modified or incorporated in DSSAT model to improve the simulations.