1000 resultados para MODELOS DINAMICOS LINEALES
Resumo:
Resumen tomado del autor
Resumo:
Resumen tomado de la publicación
Resumo:
Resumen tomado de la publicación
Resumo:
Monográfico con el título: 'Aportaciones de las nuevas tecnologías a la investigación educativa'. Resumen basado en el de la publicación
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Este artículo contiene el estudio inicial de un modelo de predicción de tráfico, que intenta mostrar cómo puede complementarse la toma de decisiones que afecten a la ciudad a través de una buena planificación vial. Esto permitirá dar alternativas posibles de solución mediante la predicción de flujos de tráfico y determinando las intersecciones de mayor influencia dentro de la red vial, lo que por consecuencia reduciría costes en tiempo, combustible, contaminación, etc., obteniendo así una herramienta de ayuda en la toma de decisiones respecto del tráfico. Específicamente, se utiliza modelos dinámicos lineales para predecir el tráfico en distintos puntos de una ciudad y, en consecuencia, pronosticar su eventual saturación. Se puede así predecir puntos de la ciudad en la que es necesario actuar para aliviar los problemas de tráfico antes de que éstos lleguen a manifestarse.
Resumo:
Los modelos no lineales son ampliamente utilizados para describir curvas de crescimiento. En un modelo no lineal, Y=f(t,0)+E donde Y es el vector de observaciones, t el vector correspondiente a las condiciones de evaluacion (instantes de tiempo conocidos), 0 el vector de parametros desconocidos, f(.) una funcion no lineal en 0 y E el vector de errores, comunmente se asume que E ~ N(O,sigma ao quadrado I). Cuando no se cumplen algunos aspectos de esa suposicion (normalidad, independencia y homogeneidad de variancias), la normalidad asintotica de los estimadores de interes puede ser afectada dificultando la comparacion de curvas obtenidas en los diferentes tratamentos. En organismos unicelulares, tales como las algas, el crecimiento es comumente medido a travez de la observacion del numero de celulas N1, N2,...,Nk en los instantes t1, t2,...,tk., respectivamente. Variables de esa naturaleza, geralmente modeladas por la distribuicion de Poisson, tienen variancias iguales a las respectivas esperanzas (crescientes con el tiempo), no verificando-se la de suposicion de homocedasticidad, lo que inviabiliza la utilizacion del modelo anteriormente descrito. El objetivo de este trabajo es discutir aspectos relacionados al uso adecuado de los modelos lineales y no lineales en el ajuste de curvas de crecimiento donde la variable respuesta tiene distribucion de Poisson. Como ejemplo, son utilizados datos de crecimiento de la microalga bioindicadora Selenastrumcapricornutum, la cual fue expuesta a diferentes tratamientos (con y sin un biopesticidas) en condiciones de laboratorio. En tales casos, donde la transformacion logaritmica de la respuesta linealiza la relacion numero de celulas versus tiempo, ademas de homogeneizar las variancias, el uso de un modelo lineal es adecuado.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
La producción de los cultivos está afectada por factores bióticos entre los que se destacan las enfermedades, malezas y plagas, por esto es de importancia el uso de plaguicidas que permitan mantener la producción. Sin embargo, estos productos constituyen un serio riesgo para la salud si no se aplican adecuadamente a fin de no dejar residuos en los granos. La introducción de marcos regulatorios cada vez más estrictos constituyen una barrera para las exportaciones actuales y futuras. El sistema agrícola-industrial argentino no cuenta aún con suficiente información para implementar las medidas adecuadas para prevenir la contaminación de granos con plaguicidas en pre y postcosecha. Se hipotetiza que la residualidad de plaguicidas en granos de soja en la Región Centro de Córdoba está influenciada por factores tanto tecnológicos como ambientales. La evaluación de la importancia relativa de estos factores permite sugerir estrategias de manejo adecuadas para asegurar niveles de residuos por debajo de los límites máximos permitidos. Se plantea como objetivo general identificar los factores tecnológicos (tecnología del cultivo, propiedades fisico-químicas de los plaguicidas, tecnología de aplicación) y sus interacciones, que inciden a campo y en postcosecha sobre el nivel de residuos de insecticidas en granos de soja, en la Región Centro de Córdoba. Como objetivos específicos se pretende cuantificar los residuos que generan las aplicaciones habituales de insecticidas, evaluar la influencia de los diferentes factores tecnológicos y sus interacciones sobre los niveles de residuos y adecuar curvas de disipación de plaguicidas a las condiciones de la región. También aportar conocimientos e información sobre el tema y sugerir prácticas de manejo que reduzcan los niveles de residuos, asegurando la calidad e inocuidad de los alimentos. Para el logro de estos objetivos se realizarán ensayos de evaluación de insecticidas a campo y en postcosecha en la localidad de Manfredi, Provincia de Córdoba, durante dos temporadas agrícolas. Se evaluarán distintas dosis y momentos de aplicación de los insecticidas endosulfán, clorpirifós+cipermetrina y fenitrotión en los ensayos a campo y fenitrotión, esfenvalerato, clorpirifós, deltametrina, DDVP y pirimifós metil en postcosecha. Con endosulfan se realizarán ensayos adecuados para el desarrollo de curvas de disipación. La determinación de residuos de plaguicidas se realizará utilizando determinación de multiresiduos a través cromatografía. Las curvas de disipación para endosulfan se ajustarán a través de modelos no lineales. Los conocimientos e información respecto a la influencia de los factores tecnológicos y sus interacciones sobre el nivel de residuos de plaguicidas en granos de soja, generados como resultados del presente proyecto, serán de utilidad para enriquecer las bases científico-técnicas en el tema y enfrentar el problema de la contaminación de granos con plaguicidas. Identificar la influencia de los factores tecnológicos y sus interacciones permitirá desarrollar prácticas de manejo tendientes a obtener productos con un nivel de residuos por debajo de los límites permitidos. La adecuación de curvas de disipación de plaguicidas a la Región Centro de Córdoba, permitirá efectuar predicciones sobre el contenido de residuos a causa de un tratamiento en un momento dado, conocer la importancia de las distintas variables y la posibilidad de variarlas para disminuir el nivel de residuos en los granos. Es importante profundizar sobre este tema ya que no existe la cantidad de información suficiente para enfrentar el problema de la contaminación por plaguicidas en nuestros sistemas productivos. Esta información es necesaria para poder garantizar la calidad e inocuidad de los alimentos tanto para el comercio interno como externo, asegurando la permanencia de los productos argentinos en los mercados internacionales.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
Este trabajo aporta evidencia empírica acerca de los factores determinantes de las diferencias en la probabilidad de acceder a un contrato indefinido entre las distintas regiones españolas. Para ello, y de forma novedosa en este contexto, se aplica una extensión de la metodología tradicional de Oaxaca-Blinder al caso de modelos no lineales. Los resultados apuntan a la coexistencia de distintas “culturas de la temporalidad” en España, al existir discrepancias regionales significativas en el empleo del trabajo temporal como medida de flexibilización laboral. Estas diferencias tienen incluso más capacidad explicativa que las discrepancias en las características de la mano de obra y de las empresas instaladas en cada región. Estos resultados cuestionan las medidas adoptadas para combatir el problema de la precariedad laboral en España, al no haber considerado las especificidades regionales.
Resumo:
El desarrollo de modelos económicos lineales fue uno de los logros más signifi cativos en teoría económica en la Norteamérica de la posguerra. La programación lineal, desarrollada por George B. Dantzig (1947), los modelos de insumo producto de Wassily Leontief (1946) y la teoría de juegos de John. Von Neumann (1944) se constituyeron en tres ramas diferentes de la teoría económica lineal. Sus aplicaciones en variados campos del conocimiento, como la Economía y la Ciencia Política, y en actividades de gestión en la industria y en el gobierno son cada vez más signifi cativas. El objetivo principal de este trabajo es el de presentar un modelo práctico de los procesos de producción típicos de una fábrica o empresa que transforma insumos en productos. El modelo se desarrolla en el contexto y con los conceptos propios de la teoría de modelos económicos lineales, y el enfoque de la investigación de operaciones, también conocido como el de las ciencias de la administración.
Resumo:
Resumen de los autores