25 resultados para Métodos de espaço de estados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La soja es la especie oleaginosa de mayor importancia y consumo en el mundo. Su cultivo se efectúa en aproximadamente 50 países, aunque el 90 por ciento de la producción está concentrada en: Estados Unidos (40 por ciento), Brasil (24 por ciento), Argentina (18 por ciento) y China (8 por ciento). En nuestro país durante la campaña agrícola 2006/07 se alcanzaron 15.981.264 ha y 47.482.784 t. Actualmente, ocupa una amplia zona ecológica, desde los 23º a los 39º de latitud sur y la región pampeana, con cerca del 90 por ciento de la superficie sembrada en las provincias de Santa Fe (28.5 por ciento), Córdoba (28 por ciento) y Buenos Aires (23 por ciento) es la principal productora. Entre los factores que limitan la producción de este cultivo se encuentra el patosistema begomovirus - mosca blanca (Bemisia tabaci Gennadius), que causa pérdidas económicas, al reducir los rendimientos y calidad de los productos obtenidos y aumentar los costos de producción por el uso intensivo de insecticidas. La continua aplicación de agroquímicos para el control del insecto conlleva la selección de individuos resistentes en la población, que puede verse acelerada si se tiene en cuenta que, durante el ciclo de cultivo, se desarrollan varias generaciones. Además, formas inmaduras y adultos se alojan en el envés de las hojas y la acción de los insecticidas es menos eficaz. Ante esto, los agricultores aumentan el número y frecuencia de las aplicaciones, con lo que se incrementa la presión de selección en las poblaciones, favoreciendo el surgimiento de estirpes resistentes. El control químico resulta antieconómico y genera un severo peligro ambiental, con perjuicios para la salud humana y animal. Por lo tanto, resulta imprescindible la búsqueda de formas alternativas de control de la plaga y de los virus que transmite, a través del manejo integrado sustentable, dentro del cual se destacan la resistencia de la planta hospedante (HPR) y el empleo de métodos culturales. Con respecto a los geminivirus, como primer paso en la búsqueda de resistencia, es de gran importancia identificar las especies y/o razas que se encuentran infectando al cultivo de soja. Además, se presupone la existencia de fuentes de resistencia a moscas blancas en germoplasma de soja y, por ende, a los begomovirus que transmiten y que es posible la caracterización de los mecanismos que confieren dicha resistencia. En base a la problemática expuesta se proponen los siguientes objetivos de trabajo:- Aislar y caracterizar molecularmente a las nuevas especies y/o razas de begomovirus detectadas en cultivos de soja y ajustar las técnicas que permitan su identificación.- Detectar y caracterizar los mecanismos de resistencia, antixenosis, antibiosis o ambas, frente a la mosca blanca B. tabaci en distintos cultivares de soja. Para cumplimentar tales objetivos se efectuará el clonado y secuenciación del genoma completo de los diferentes begomovirus detectados; serán ajustadas técnicas de hibridación molecular con marcado no radioactivo y producidos clones infecciosos que, posteriormente, se emplearán para inocular distintas especies (rango de hospedantes). Por otro lado, se tratará de detectar y caracterizar fuentes de resistencia a B. tabaci en germoplasma de soja (cultivares comerciales y líneas en proceso avanzado de mejoramiento). Como primer paso se efectuará la cría de la mosca blanca bajo condiciones controladas.Se medirán variables indicadoras de antibiosis (en condiciones de no elección o alimentación forzada): número de huevos, ninfas y adultos, tasa de mortalidad, duración del ciclo biológico, longevidad y peso de insectos adultos. Complementariamente se determinará antixenosis (en condiciones de libre elección): índice de atracción y preferencia para la oviposición y su correlación con el número de tricomas foliares. Los resultados del proyecto serán de inmediata transferencia a fitotecnistas, semilleros y sector productivo en general, permitiendo la reducción de pérdidas significativas ocasionadas por begomovirus y por su vector.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las estrategias en el diseño de estructuras estuvieron históricamente limitadas por condicionantes como la eficiencia estructural, la lectura de la estructura explicitando su función, o la estructura planteada a partir de materiales o recursos disponibles. Actualmente, el desarrollo de nuevas tecnologías informáticas, nuevos materiales y la aparición de nuevos paradigmas en cuanto a tecnología sustentable, ha generando una situación de libertad arquitectónica prácticamente total en la que casi cualquier planteo formal puede ser resuelto y construido. Es consecuencia de este proceso la aparición de formas estructurales fracturadas, angulosas, grandes voladizos, y la utilización de materiales y sistemas tecnológicos no convencionales, que requieren de nuevas técnicas auxiliares de proyecto, ejecución y representación, y para las cuales es necesario un nuevo planteamiento y adecuación de estrategias de diseño estructural en relación a la propuesta arquitectónica. Este nuevo escenario proyectual, no está contemplado en los métodos de enseñanza del diseño de estructuras, produciendo un vacío conceptual sobre los futuros profesionales que deberán incursionar en el mundo actual. Es por ello que se propone indagar en diferentes estrategias de diseño para la elaboración de una metodología didáctica que permita descubrir el concepto del proyecto arquitectónico y generar un sistema estructural que se relacione adecuadamente con él, desde una visión integral de la arquitectura como producto cultural complejo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dinámica molecular colectiva de los cristales líquidos (CL) juega un papel preponderante en la respuesta de estos sistemas ante la aplicación de campos eléctricos y magnéticos externos, por lo que el estudio básico de la dinámica molecular, particularmente de los movimientos correlacionados, es indispensable para el diseño de aplicaciones tecnológicas basadas en CL. Por otra parte, se reconoce que la dinámica molecular colectiva distintiva de las fases ordenadas de fluidos complejos es además una propiedad que controla procesos clave en diversidad de materiales biológicos (funcionalidad y propiedades viscoelásticas de membranas, resistencia al almacenamiento de semillas y alimentos, temperatura de transición vítrea de compuestos de almidón, estabilidad de fases lamelares, etc.). Al presente, la relación entre estos conceptos reclama exhaustivos análisis y técnicas adecuadas para estudiar los movimientos microscópicos en distintas escalas temporales. En este Proyecto de investigación básica proponemos desarrollar y optimizar un conjunto de técnicas de RMN selectivamente aptas para el estudio de la dinámica lenta característica de las fases parcialmente ordenadas, por lo que tendrían aplicación directa en sistemas de interés biológico y tecnológico. Mediante diversas secuencias de pulsos en experimentos de RMN, es posible preparar estados cuánticos de “orden dipolar” en el sistema de espines nucleares, tanto en muestras en fase sólida como en CL. Tales estados de orden, están caracterizados por "cuasi-invariantes" que son observables de espin que relajan lentamente, intercambiando energía con la red que hace las veces de reservorio térmico. En síntesis, una vez creado el orden y establecido el estado de cuasi-equilibrio de cada cuasi-invariante, el sistema se comporta como un sistema termodinámico en contacto térmico con una red. De hecho, con todo rigor, se puede caracterizar el grado de orden por una "temperatura de espin". Además hay evidencia que los cuasi-invariantes dipolares reflejan sensible y selectivamente los movimientos moleculares correlacionados (a diferencia del cuasiinvariante Zeeman o magnetización nuclear). El aspecto distintivo de nuestra propuesta con respecto al estado actual del conocimiento, radica en la provisión de un nuevo parámetro de relajación de protones en cristales líquidos, para lo cual enfocamos las tareas hacia la caracterización de estos cuasiinvariantes, al diseño de técnicas de medición de sus tiempos de relajación y al desarrollo de la teoría que relaciona a éstos con la dinámica molecular. El esquema de trabajo se basa en reconocer que los eventos relevantes en los experimentos de creación-relajación de cuasi-invariantes dipolares ocurren en dos escalas de tiempo: la escala microscópica asociada con la decoherencia de los estados cuánticos y la escala macroscópica en la que se observa la relajación espín-reservorio. Proponemos como hipótesis general que los procesos que gobiernan la decoherencia, determinan también la relajación espin-red. Proponemos un enfoque innovador dentro del campo general de relajación de espin nuclear por RMN: considerar al sistema de espines nucleares como un sistema cuántico abierto multi-spin interactuando con un sistema (también cuántico) no observado. Para incorporar el detalle de la dinámica en escala microscópica en la descripción de la relajación es necesario el estudio experimental de los fenómenos que gobiernan la decoherencia y la relajación. Los resultados esperados en cada uno de esos grupos se interrelacionan, ya que la caracterización de los observables dipolares es un paso indispensable para explotar la potencialidad de la relajación del orden dipolar en presencia de movimientos moleculares correlacionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diabetes mellitus tipo 2 y otras patologías relacionadas con un estado proinflamatorio crónico (hipertensión arterial, aterosclerosis, enfermedad de Alzheimer y cáncer ) se producen en ciertos individuos, debido a la acumulaciòn de alteraciones en el organismo, a través del tiempo. El propósito de este proyecto es elaborar índices confiables, clínicos y bioquímicos que podrían servir como marcadores de perturbaciones en el organismo que pueden ser indicadores fiables de la manifestación clínica de diabetes mellitus tipo 2 y si estos parámetros son modificables por hábitos dietarios saludables y práctica de ejercicios físicos. Estas medidas simples y económicas podrían ser empleadas efectivamente para evitar o posponer la aparición de diabetes mellitus tipo 2 en sujetos en riesgo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La auditoría es el proceso que agrega un grado razonable de seguridad en relación a que la información contenida en los estados financieros se encuentra libre de incorrecciones materiales respecto del marco de información utilizado en su elaboración. Los procesos de auditoría de estados financieros incorporan el siguiente modelo de riesgos: Ra = Ri x Rfc x Rfd Donde: Ra = Riesgo de auditoría, (posibilidad que el auditor arribe a una conclusión equivocada tras la realización de la auditoría), Ri = Riesgo inherente (posibilidad que la información a ser exteriorizada en los estados financieros contenga incorrecciones materiales en si mismas), Rfd = Riesgo de falta de control (posibilidad que información con incorrecciones materiales en si misma no sea prevenida, detectada o corregida por el sistema de control interno), Rfd = Riesgo de falta de detección (posibilidad que información con icorrecciones materiales no prevenida, detectada o corregida por el sistema de control interno, tampoco lo sea por los procedimientos que emplea el auditor), A partir de la referida formulación matemática el auditor de estados financieros puede obtener una medida objetivo del riesgo de falta de detección a partir de: a) La definición de un nivel aceptable de riesgo de auditoría y b) la valoración del riesgo combinado que es producto del riesgo inherente y del riesgo de falta de control. Podemos expresar lo anterior mediante la expresión: Rfdo = Raa / (Ri x Rfc) Donde: Rfdo = Riesgo de falta de detección objetivo, Raa = Riesgo de auditoría aceptable, Ri = Riesgo inherente, Rfc = Riesgo de falta de control, La obtención de una medida objetivo de riesgo de falta de detección constituye en un factor determinante a la hora de planificar y ejecutar una auditoría de estados financieros ya que incide: a) en la determinación del nivel de significación, b) en la selección de los procedimientos de auditoría alternativos con idénticos propósitos, c) en la determinación del alcance y oportunidad de los referidos procedimientos. El objetivo del presente proyecto es el desarrollo de un modelo integrado de cuantificación del riesgo inherente y del riesgo de falta de control – riesgo combinado – con vistas a lograr medidas del riesgo de falta de detección objetivo que puedan actuar como ejes conductores en los procesos de auditoría de estados financieros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el ámbito contable se conoce que los resultados que arrojan los balances de las empresas contienen una distorsión en el resultado motivado en que sus cifras no están ajustadas por inflación. Esta distorsión afecta las decisiones de los usuarios tipo que se tuvieron en cuenta a la hora de redactar las resoluciones técnicas y que están plasmados en la RT16 emitida por la FACPCE. En el presente trabajo se pretende llevar esa conjetura a una cifra que permita ajustar los valores de los estados contables para luego realizar una aplicación de campo donde se van a seleccionar empresas que coticen en el Mercado de Valores de Buenos Aires para aplicar la metodología de cálculo desarrollada y de esta manera medir la distorsión existente en los balances contables para finalmente extraer las conclusiones.