1000 resultados para ANÁLISIS DE MERCADEO - MÉTODOS DE SIMULACIÓN


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Consideramos de interés realizar un análisis financiero de la banca virtual en España para ser capaces de posicionar aquellas entidades bancarias que vieron en el canal de Internet una vía de expansión hacia nuevos clientes o como consolidación de los existentes, ya que todos los bancos creados en España de carácter virtual son filiales de grandes grupos bancarios. Utilizamos como modelos de análisis la aplicación de los métodos multicriterio CAMEL y Promethee. Como conclusiones del trabajo se observa que, independientemente del método utilizado, la entidad que mejor se posiciona para el periodo de análisis estudiado (2004-2010) es Bancopopular-e. No obstante, son entidades que todavía alcanzan valores muy bajas de rentabilidad y liquidez y donde datos como la eficiencia o la calidad de activos son muy mejorables.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La creencia de que los métodos existentes para evaluación del desempeño empresarial eran obsoletos y podían llevar a las empresas a tomar decisiones erróneas llevaron al desarrollo de sistemas de información y control de gestión que reflejen la evolución de los factores clave de éxito de naturaleza no financiera y/o cualitativa, como es el caso del Cuadro de Mando Integral. Así, con el objetivo de averiguar si conocen y están a adoptar el CMI, hemos enviado un cuestionario a 549 organizaciones privadas, con una tasa de respuesta del 28,2%. Los resultados obtenidos permiten concluir que aunque la mayoría de los encuestados conoce el CMI, su utilización en dichas organizaciones es reducida y muy reciente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Conocer el grado de eficiencia con la que funcionan los laboratorios clínicos del primer nivel mediante una evaluación que integre: la productividad, la calidad y los costos. MÉTODOS: Se seleccionaron 10 laboratorios clínicos de un total de 52 existentes en la Ciudad de México; se utilizó el modelo de Donabedian en sus componentes de estructura, proceso y resultado utilizando la biometría hemática como rastreador. RESULTADOS: Los principales problemas fueron: inadecuada distribución del recurso humano calificado; malas condiciones del material de vidrio; inadecuado proceso analítico y baja productividad. Estos problemas se reflejaron en un incremento de un 200% en los costos unitarios respecto al costo ideal. Solamente son confiables los resultados de 50% de los laboratorios analizados. Veinte porciento de los laboratorios analizados son eficientes. CONCLUSIONES: La solución a los problemas encontrados requiere de estrategias integrales que comprometen a diferentes ámbitos, por lo que su solución se plantea difícil. Se recomienda analizar el costo-beneficio de crear un laboratorio central y dejar a los demás laboratorios como sitios para la toma de muestras exclusivamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Analizar medidas municipales implementadas para el control de la epidemia del dengue, sobretodo las de coordinación sectorial, gobernanza y participación de grupos sociales. MÉTODOS: Estudio de observación, realizado en Morelos, México, 2007. Los datos colectados en entrevistas y observaciones directas fueron sometidos a análisis de contenido y mapeo político. El software Policy Marker fue utilizado para evaluar los pesos atribuidos a los datos de desempeño (e.g. criterios alto, medio y bajo) y el papel de actores (acciones realizadas sean ellas de vigilancia, control o administrativas). Se realizó análisis estratégico de las oportunidades y desafíos en el cumplimiento de las políticas públicas y control del dengue. RESULTADOS: Las bases jurídicas indican que la respuesta a la epidemia es una tarea multisectorial. Sin embargo, la respuesta está centrada en actividades de los servicios de la salud, que están forzados a dar mayor apoyo financiero y derivar los recursos humanos necesarios, en contraste con la contribución de otros sectores (e.g. agua y saneamiento básico), que desconocen sus responsabilidades. El sector de la salud presenta alto nivel de factibilidad para la vinculación intra?institucional, en términos de optimización de recursos y cumplimiento de objetivos, particularmente entre autoridades de salud en los niveles estatal, jurisdiccional, municipal y local. CONCLUSIONES: El abordaje multidisciplinario y el fortalecimiento de las responsabilidades políticas permitirán la respuesta eficaz ante la epidemia del dengue, sustentada en la coordinación sectorial e involucramiento activo de la población afectada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los sistemas de producción de leche bovina son extremadamente complejos por la gran cantidad de variables que inciden sobre la magnitud de los resultados. Esto dificulta el análisis de los sistemas reales abordados en su totalidad y como una unidad. Resulta imposible utilizar todas las variables que inciden sobre los resultados de un sistema real al momento de construir un modelo de simulación. Es por eso que se hace necesario simplificar el modelo que describe el sistema, considerando un número limitado de variables que sean la fuente de las grandes variaciones en la magnitud del producto final (Silva Genneville y Mansilla Martínez, 1993). El apoyo informático de las técnicas de simulación resulta de gran utilidad para entender, explicar o mejorar el sistema (Aguilar González, 1997) y a su vez permite que la simulación sea factible, rápida y económica. Los modelos proporcionan a más bajo costo y menor tiempo un conocimiento más rápido de las situaciones reales (Silva Genneville y Mansilla Martínez, 1993). Los modelos de simulación están dirigidos al estudio de un problema específico y la búsqueda de soluciones. La predicción de la respuesta animal en función del nivel de alimentación y el tiempo bajo distintas condiciones de manejo, puede ser utilizada para la planificación física y económica de los sistemas ganaderos. El objetivo general del proyecto es brindar una herramienta que permita planificar la alimentación y presupuestar recursos de los diferentes sistemas de producción de carne en Argentina para contribuir al mejoramiento de la productividad de los mismos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El uso de robots industriales junto con los sistemas de diseño asistidos por computadora (CAD), y los sistemas de fabricación asistidos por computadora (CAM), son la última tendencia en automatización de los procesos de fabricación. Aunque el crecimiento del mercado de la industria Robótica ha sido lento en comparación con los primeros años de la década de los 80´s, de acuerdo a algunas predicciones, la industria de la robótica está en su infancia. Ya sea que éstas predicciones se realicen completamente, o no, es claro que la industria robótica, en una forma o en otra, permanecerá. En la actualidad el uso de los robots industriales está concentrado en operaciones muy simples, como tareas repetitivas que no requieren tanta precisión. En los 80´s las tareas relativamente simples como las máquinas de inspección, transferencia de materiales, pintado automotriz, y soldadura son económicamente viables para ser robotizadas. Los análisis de mercado en cuanto a fabricación predicen que en ésta década y en las posteriores los robots industriales incrementarán su campo de aplicación, ésto debido a los avances tecnológicos en sensórica, los cuales permitirán tareas mas sofisticadas. El futuro es muy incierto y seguramente los ROBOTS tendrán mucho que ver en nuestra vida diaria en los próximos años y tenemos que lograr que la Argentina no solo este presente, en desarrollos que ameriten una publicación Internacional, si no también que puedan ser, en conjunción con la Universidad, la industria y aportes de capitales privados, diseñados, construidos, aplicados y comercializados según las necesidades de nuestro medio, desde el reemplazo de miembros humanos a personas con discapacidades, el alivio al hombre en tareas inhumanas y también en aplicaciones industriales aun no explotadas. Actualmente la investigación en el área de robótica en la Argentina, esta enfocada a problemas de electrónica y control. La mecánica no forma parte de dicho ambiente científico como puede verse en las 4 últimas Jornadas Argentinas de Robótica. En todos los casos se trabaja en la investigación de algoritmos o métodos de control montados en pequeños robots comerciales. El proyecto ROBOT-01 propone la construcción de un manipulador de 7 grados de libertad, aplicando las mas modernas técnicas de Simulación, diseño, CAD-3D, materiales compuestos, construcción de micro-mecánica, electrónica y software. El brazo manipulador estará diseñado para ser continuado o asociado con una mano robótica y con una base móvil autónoma, las que serán encaradas en proyectos futuros, o con interacción con otros grupos de investigación similares de otras Universidades

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un sistema inalámbrico en UHF puede ser utilizado tanto para la identificación de productos como para la adquisición de datos. Si se encuadra en la identificación se está refiriendo a sistemas “RFID” y si se encuadra en la adquisición de datos se está en presencia de una “Red de Sensores Inalámbrica”. El presente proyecto pretende desarrollar una plataforma de discusión permanente sobre estas tecnología que permita la optimización de los diferentes estamentos de la red. El proyecto tiene como objetivo general mejorar las prestaciones del vinculo entre los distintos elementos en un sistema RFID (Radio Frecuency Identification) o WSN (Wireless Sensor Network). En tal sentido, se propone en una primer línea de investigación, el desarrollo de un modelo que caracterice una red inalámbrica de sensores en UHF, permitiendo luego simularla bajo distintas condiciones. El objetivo es tener una herramienta con la cual se pueda estudiar y simular el comportamiento de una red con varios nodos. Una segunda línea de trabajo aborda el problema del test para sistemas RFID y WSN, con énfasis en nodos activos y pasivos diseñados con circuitos analógicos y digitales configurables y componentes comerciales. Así, se propone el desarrollo de estrategias de test de bajo consumo y alto desempeño focalizadas en las secciones analógicas, de conversión y digitales configurables del nodo. Los trabajos específicos planteados para responder a los objetivos que se pretenden son: La caracterización y modelado del enlace inalámbrico en UHF; La caracterización y modelado del transceptor en sus distintas etapas; La caracterización y modelado de la red con los distintos nodos; El estudio de nuevos diseños de antenas; El estudio de distintas adaptaciones de la etapa de RF con la antena; El estudio de alternativas de distintas modulaciones de las señales a transmitir; Proponer estrategias de simulación y/o emulación de fallas para sistemas analógicos y digitales que permita la evaluación de las estrategias de test y de los mecanismos de recuperación ante fallas; Evaluar el funcionamiento en laboratorio y en campo de los nodos y el lector

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo es aportar parámetros cinéticos de interés en la Fotoquímica de la Atmósferica, relacionada con la comprensión de los procesos de abstracción de átomo de cloro de halometanos, con radicales asimétricos del tipo C2FxCly (donde x + y = 5). La fuente de radicales (ICF2CFECl Y ICF2CFC12) son ioduros asimétricos sintetizados y purificados con cromatografía gaseosa y caracterizado por espectroscopía IR, UV y espectrometría de masa. Se utiliza un sistema de medición para reacciones competitivas en la determinación de las constantes de velocidad, con análisis de los productos mediante cromatografía gaseosa. Se calcularán además algunas funciones termodinámicas de los radicales involucrados y de los procesos de transferencia de átomo de cloro de las reacciones directas e inversas. Los factores experimentales son reproducidos por el método de Benson. Para explicar la correlación entre las energías de activación, estructura electrónica y geometría del estado de transición se utilizarán métodos ab-initio y semiempíricos que pueden dar una explicación satisfactoria de los valores experimentales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[El presente proyecto] aborda el tema de espectroscopía por fluorescencia de Rayos X (FRX) no convencional, en particular el estudio de superficies por reflexión total y el análisis con resolución espacial (mapping) mediante capilares para Rayos X. Objetivos generales y específicos Este proyecto consta de objetivos teóricos y experimentales. Se planea construir y caracterizar sistemas de condensación de haces de fotones por medio de capilares de Rayos X. (...) Se concluirá con el desarrollo e implementación del sistema para análisis superficial por perfiles de profundidad. Este sistema, cuyo estado de avance se encuentra ya muy adelantado, comenzará a utilizarse para realizar estudios de capas superficiales, perfiles superficiales de densidad y concentración, etc. El citado dispositivo es un sistema mixto mecánico-elástico que permite efectuar variaciones angulares con precisión de centésimas de milirradián. Con el objeto de llevar a cabo estudios de perfiles de profundidad cuantitativos se desarrollarán métodos y algoritmos para análisis de datos basados en las estructuras teóricas del análisis por EXAFS (Extended X Ray Analysis Fine Structure). Este enfoque surge de la similitud entre los espectros obtenidos en una experiencia de EXAFS y los correspondientes a una medición de "Depth Profiling" y tiene su fundamentación sobre la base de las ecuaciones elementales para intensidad fluorescente en condiciones de onda estacionaria. Ya que las técnicas por FRX no convencionales están invariablemente asociadas a fuentes de irradiación no convencionales, otro de los objetivos importantes de este proyecto es llevar a cabo experiencias en laboratorios sincrotrón. (...)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La etapa de optimización de una droga denominada "Preformulación" está dirigida a definir el perfil de una droga desde el punto de vista de su identidad, pureza y potencia. Mediante la determinación de las propiedades físico-químicas que son relevantes en la formulación de un agente terapéutico es posible realizar una evaluación preliminar sobre las características de absorción del principio activo, por parte del organismo. (...) En la actualidad se elaboran en la Oficina de Farmacia "Formas Farmacéuticas" de cierta complejidad, que no pueden ser analizadas por los clásicos métodos químicos, sino que requieren de técnicas de instrumental modernas altamente selectivas y sensibles. Este tipo de estudio no puede realizarse fuera de los laboratorios oficiales de Control o del ámbito universitario, en razón del costo del equipamiento y las condiciones necesarias para su correcto funcionamiento. El análisis de los principios activos y de los productos farmacéuticos con ellos elaborados es responsabilidad tanto de la autoridad reguladora como el propio farmacéuticas que serán administradas al paciente. Es por ello que esta propuesta involucra el desarrollo de metodologías analíticas específicas y sensibles que permitan, en forma rápida, determinar la composición de las formas farmacéuticas que se comercializan, para "garantizar", dentro de los límites admisibles, la "calidad", requisito previo para una terapéutica medicamentosa eficaz y racional. Estudios realizados en diferentes países, demuestran el desarrollo significativo que ha tenido la Cromatografía Líquida de Alta Presión (HPLC) y la Espectrofotometría de Derivadas en el campo farmacéutico, permitiendo el análisis de drogas en presencia de sus productos de degradación o bien en mezclas de multicomponentes, aplicando distintas técnicas Espectroscópicas, como IR, RMN y EM en la determinación de estructuras. Por tal motivo, este proyecto apunta a desarrollar metodologías analíticas aplicables al análisis y determinación simultánea de los principios activos contenidos en formulaciones farmacéuticas. En este caso particular se propone el estudio de preparaciones galénicas (comprimidos) utilizadas como complemento en regímenes alimenticios, debido a la acción farmacológica de los ingredientes activos, al uso intensivo de las mismas en la Provincia de Córdoba y a la falta de Control de Calidad.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este proyecto, enmarcado en el área de metodología de análisis en bioingeniería-biotecnología aplicadas al estudio del cancer, es el análisis y caracterización a través modelos estadísticos con efectos mixtos y técnicas de aprendizaje automático, de perfiles de expresión de proteínas y genes de las vías metabolicas asociadas a progresión tumoral. Dicho estudio se llevará a cabo mediante la utilización de tecnologías de alto rendimiento. Las mismas permiten evaluar miles de genes/proteínas en forma simultánea, generando así una gran cantidad de datos de expresión. Se hipotetiza que para un análisis e interpretación de la información subyacente, caracterizada por su abundancia y complejidad, podría realizarse mediante técnicas estadístico-computacionales eficientes en el contexto de modelos mixtos y técnias de aprendizaje automático. Para que el análisis sea efectivo es necesario contemplar los efectos ocasionados por los diferentes factores experimentales ajenos al fenómeno biológico bajo estudio. Estos efectos pueden enmascarar la información subycente y así perder informacion relavante en el contexto de progresión tumoral. La identificación de estos efectos permitirá obtener, eficientemente, los perfiles de expresión molecular que podrían permitir el desarrollo de métodos de diagnóstico basados en ellos. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, herramientas y procedimientos de análisis que maximicen la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos/proteómicos que permitan extraer información biológica relevante pertinente al análisis, clasificación o predicción de cáncer, el diseño de tratamientos y terapias específicos y el mejoramiento de los métodos de detección como así tambien aportar al entendimieto de la progresión tumoral mediante análisis computacional intensivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Identificación y caracterización del problema: El problema que guía este proyecto, pretende dar respuesta a interrogantes tales como: ¿De qué modo el tipo de actividades que se diseñan, se constituyen en dispositivos posibilitadores de la comprensión de los temas propios de cada asignatura, por parte de los alumnos? A partir de esta pregunta, surge la siguiente: Al momento de resolver las actividades, ¿qué estrategias cognitivas ponen en juego los estudiantes? y ¿cuáles de ellas favorecen procesos de construcción del conocimiento? Hipótesis: - Las asignaturas cuyas actividades están elaboradas bajo la metodología de Aprendizaje Basado en Problemas y Estudio de Casos, propician aprendizajes significativos por parte de los estudiantes. - Las actividades elaboradas bajo la metodología del Aprendizaje Basado en Problemas y el Estudio de Casos requieren de procesos cognitivos más complejos que los que se implementan en las de tipo tradicional. Objetivo: - Identificar el impacto que tienen las actividades de aprendizaje de tipo tradicional y las elaboradas bajo la metodología de Aprendizaje Basado en Problemas y Estudio de Casos, en el aprendizaje de los alumnos. Materiales y Métodos: a) Análisis de las actividades de aprendizaje del primero y segundo año de la carrera de Abogacía, bajo lamodalidad a Distancia. b) Entrevistas tanto a docentes contenidistas como así también a los tutores. c) Encuestas y entrevistas a los alumnos. Resultados esperados: Se pretende confirmar que las actividades de aprendizaje, diseñadas bajo la metodología del Aprendizaje Basado en Problemas y el Estudio de Casos, promueven aprendizajes significativos en los alumnos. Importancia del proyecto y pertinencia: La relevancia del presente proyecto se podría identificar a través de dos grandes variables vinculadas entre sí: la relacionada con el dispositivo didáctico (estrategias implementadas por los alumnos) y la referida a lo institucional (carácter innovador de la propuesta de enseñanza y posibilidad de extenderla a otras cátedras). El presente proyecto pretende implementar mejoras en el diseño de las actividades de aprendizaje, a fin de promover en los alumnos la generación de ideas y soluciones responsables y el desarrollo de su capacidad analítica y reflexiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.