5 resultados para Independencia peruana

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las relaciones intensidad de lluvia-duración-Recurrencia (i-d-T) y el patrón de distribución temporal de las lluvias, requeridos para estimar las "Crecientes de proyecto", empleadas para el proyecto de obras de ingeniería civil y planificación del uso del suelo, solo se pueden extraer de extensos registros de alta frecuencia, normalmente fajas pluviográficas, elemento en general no disponible en Argentina. En cambio, es habitual disponer de otro dato de lluvia provisto por pluviómetros: la lámina diaria total. En la provincia de Córdoba, existe información de relaciones i-d-T para siete estaciones pluviográficas, insuficientes para lograr una buena cobertura espacial de toda la Provincia. En este trabajo, se buscará regionalizar las ternas i-d-T para toda la provincia de Córdoba utilizando una técnica de regionalización la cuál contempla el uso de un modelo predictivo e información pluviométrica la cuál se caracteriza por su mayor densidad espacial. A tal fin se espera plasmar la información disponible en mapas digitales (grillas con resolución espacial acorde a los fines de proyecto) los cuales permitan caracterizar el comportamiento estadístico de la variable lluvia máxima diaria, a través de dos parámetros descriptivos como son la media y desvió estándar de los logaritmos de dichas series, incorporando a través de ellos características locales al modelo predictivo. Toda la información procesada y los mapas elaborados serán conformados en un Sistemas de Información Geográfica (SIG). El proceso metodológico empleado se puede resumir en siete actividades principales, a saber: a) selección de las estaciones pluviométricas disponibles en la provincia de Córdoba en base a la longitud de las series de registros, la verificación sobre las series de valores máximos de lluvias diarias de las hipótesis estadísticas básicas (independencia, estacionalidad y homogeneidad) y detección de datos atípicos. b) Determinación de los parámetros provenientes del análisis de estadística inferencial sobre las series de lluvias máximas diarias registradas en los puestos seleccionados y sobre los logaritmos de ellas. c) Ubicación especial de las distintas estaciones pluviométricas y sus parámetros estadísticos, d) Interpolación de la información puntual, generación de mapas de interpolación y análisis tendencial. e) implementación del Modelo predictivo para la regionalización de las curvas i-d-T. f) cuantificación de las incertidumbres provenientes de las distintas fuentes que permitan determinar el intervalo de confianza de los resultados obtenidos, para ello se espera plantear uno o más de los siguientes enfoques metodológicos, estadística clásica (análisis de primer orden), métodos bayeseanos, principio de pareto y/o principio de equifinalidad. g) Análisis y Validación de los resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IDENTIFICACIÓN Y CARACTERIZACIÓN DEL PROBLEMA - HIPÓTESIS Según la NIC 39, el valor razonable es la cantidad por la que puede ser intercambiado un activo o cancelado un pasivo entre un comprador y un vendedor interesados y debidamente informados, en condiciones de independencia mutua. La definición del FASB (SFAC 7) es muy similar, y define el valor razonable como el monto mediante el que un activo podría ser enajenado en una transacción entre partes independientes, dispuestas a realizar la operación en situaciones diferentes a la de una liquidación o a la de una venta forzada. Puede apreciarse que esta definición de valor razonable es limitada porque, a excepción de escenarios que se correspondan con mercados perfectos y completos, el concepto puede abarcar valores de entrada, valores de salida y valores en uso, los cuales pueden ser muy diferentes (Beaver, 1987). El valor de entrada es el valor de adquisición o de reemplazo, el valor de salida es el precio al cual un activo puede ser vendido o liquidado, y el valor en uso es el valor incremental de una empresa atribuible a un activo (se correspondería con el valor presente mencionado anteriormente). Dado que el IASB y la FASB se ocupan de la valuación de activos que una empresa posee, y no de activos que serán adquiridos en un futuro, su definición de valor razonable debería ser interpretada desde la perspectiva del vendedor. Por lo tanto, el concepto de valor razonable que manejan el IASB y la FASB se asemeja a un valor de salida, tal como lo propusieron Chambers y Stirling hace bastantes años atrás.Planteado esto, lo que tratará de dilucidar este proyecto de investigación es si este concepto de valor razonable es realmente novedoso o es una simple regresión a los valores corrientes de salida defendidos por los autores de la década del setenta. OBJETIVOS GENERALES Y ESPECÍFICOS General Analizar si el concepto “valor razonable” tal como es definido por la normativa actual se corresponde con una definición novedosa o es una adaptación/modificación/regresión de conceptos ya existentes (valores corrientes de salida). Específicos Revisar la literatura específica desde el punto de vista de la teoría contable y las normas de las que dispone la profesión referidas a los siguientes aspectos: a) Valores corrientes b) Valor razonable MATERIALES Y MÉTODOS El análisis que se llevará a cabo comprenderá dos aspectos. El primero consiste en la revisión de la doctrina contable. Para ello se analizará bibliografía significativa y trabajos de eventos académicos relacionados con el valor razonable. En segundo término se revisará la normativa profesional a nivel nacional e internacional. Después de concluido con los pasos anteriores se analizará la novedad del concepto valor razonable y su semejanza con el valor corriente de salida planteado por los autores de la década del setenta. IMPORTANCIA DEL PROYECTO – IMPACTO Se pretende revisar si el concepto valor razonable planteado por la normativa actual resulta realmente novedoso o es una adaptación de viejos conceptos planteados en la década del setenta del siglo pasado. El proyecto resulta importante porque es un tema no desarrollado en la literatura, ni planteado en congresos. Se estima lograr material de publicación y presentación en eventos académicos. According to the NIC 39, fair value is the quantity for the one that can be exchanged an asset or cancelled a liability between a buyer and a seller interested and due informed, in conditions of mutual independence. The definition of the FASB (SFAC 7) is very similar, and defines fair value as the amount by means of which an assets might be alienated in a transaction between independent parts, ready to realize the operation in situations different from that of a liquidation or to that of a forced sale. This definition of reasonable value is limited because, with the exception of scenes that fit with perfect and complete markets, the concept can include values of entry, values of exit and values in use, which can be very different (Beaver, 1987). The value of entry is the value of acquisition or of replacement, the value of exit is the price to which an asset can be sold or liquidated, and the value in use is the incremental value of a company attributable to an asset. Provided that the IASB and the FASB deal with the appraisal of assets that a company possesses, and not of assets that will be acquired in a future, this definition of fair value should be interpreted from the perspective of the seller. Therefore, the concept of reasonable value that they handle the IASB and the FASB is alike a value of exit, as Chambers and Stirling proposed it enough years ago behind. We will review if the concept of "fair value" is really new or if it is an adaptation of old concepts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ante la necesidad de la comunidad de la Escuela de Educación Especial Martinez Allio orientada a la educación especial de niños con discapacidad psicomotora, ubicada en la Ciudad de Córdoba, el presente proyecto aborda el análisis, diseño, y ejecución de prototipos de elementos de soporte técnico para niños con discapacidad psicomotora, que permitan desempeñarse con independencia en la vida cotidiana y dentro del ámbito de la Escuela. Esto posibilitaría facilitar la independencia motora de los niños dentro del ámbito de la Escuela, y mejorar las metodológicas de docentes dedicados a la Educación Especial, además de institucionalizar experiencias que permitan promover, desde la propia formación académica, acciones interdisciplinarias e interinstitucionales que favorezcan la modificación progresiva de la comunidad, y la orientación de los alumnos para facilitar la formación del perfil profesional esperado. CONTRIBUCIÓN DEL PROYECTO A LA ACCESIBILIDAD: El abordaje de esta problemática dentro del contexto señalado anteriormente busca: -Mejorar la calidad de vida de los niños con discapacidad psicomotriz -Facilitar el trabajo de los docentes al momento de mejorar las condiciones motoras -Desarrollar propuestas concretas de tecnología asistiva para facilitar la independencia motriz de los niños y personas con discapacidad psicomotriz.