14 resultados para Errores ortográficos

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se propuso el estudio de los desórdenes genéticos en el metabolismo de las purinas (Pu) y pirimidinas (Pi), debido a que dentro del amplio espectro de enfermedades metabólicas hereditarias (EMH) que fueron identificándose en nuestro medio no se incluían estas entidades, probablemente por el desconocimiento de su existencia y también por la carencia de la metodología necesaria para su pesquisa. Hasta el presente fueron identificados veintitrés defectos hereditarios que involucran las enzimas esenciales del metabolismo de las Pu y Pi, diecisiete de ellos asociados con serias consecuencias clínicas; los sistemas frecuentemente afectados son: inmunológico, hematológico, neurológico y renal. Defectos enzimáticos en este metabolismo, como por ejemplo el de la enzima Tiopurina S-metiltransferasa (TPMT), pueden provocar también intolerancia al tratamiento de diversas enfermedades con drogas análogas a las Pu y Pi. Los principios de identificación de los desórdenes de las Pu y Pi comprenden la investigación del producto del gen anormal, es decir esencialmente la aplicación de la genética bioquímica que estudia: a) el defecto genético evaluando la consecuencia del bloqueo de la vía metabólica normal por deficiencia de los productos o por acumulación de los precursores de estos metabolitos; b) la actividad enzimática específica, la cual puede presentar una deficiencia total, parcial o sobreactividad. Además se puede aplicar la genética molecular, es decir la investigación de las mutaciones responsables del defecto metabólico de utilidad para la confirmación diagnóstica y para establecer correlaciones genotipo-fenotipo. El estudio abarcó tres áreas estrictamente relacionadas con el tópico central, el metabolismo de las Pu y Pi, y concatenadas en sus objetivos específicos: I. Investigación de las enfermedades genéticas de las Pu y Pi. Objetivo: - Reconocer las EMH-PuPi a través de un protocolo selectivo que permita definir las alteraciones bioquímicas, enzimáticas y moleculares en pacientes presuntos de padecer estos defectos. II. Investigación del polimorfismo genético de la TPMT en la población argentina. Objetivo: - Investigar el polimorfismo genético de la TPMT, fenotipo bioquímico (actividad enzimática) - genotipo (mutaciones), en la población argentina debido a que esta enzima es un excelente ejemplo del potencial impacto de la farmacogenética en medicina. II. Investigación de posibles mecanismos de excitotoxicidad y deficiencia energética en pacientes con diferentes EMH mediante el análisis de bases y nucleósidos en el LCR. Objetivo: - Establecer posibles interacciones entre otras vías comprometidas con la del metabolismo de las Pu y Pi en EMH de exacta nosología.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los eventos transitorios únicos analógicos (ASET, Analog Single Event Transient) se producen debido a la interacción de un ión pesado o un protón de alta energía con un dispositivo sensible de un circuito analógico. La interacción del ión con un transistor bipolar o de efecto de campo MOS induce pares electrón-hueco que provocan picos que pueden propagarse a la salida del componente analógico provocando transitorios que pueden inducir fallas en el nivel sistema. Los problemas más graves debido a este tipo de fenómeno se dan en el medioambiente espacial, muy rico en iones pesados. Casos típicos los constituyen las computadoras de a bordo de satélites y otros artefactos espaciales. Sin embargo, y debido a la continua contracción de dimensiones de los transistores (que trae aparejado un aumento de sensibilidad), este fenómeno ha comenzado a observarse a nivel del mar, provocado fundamentalmente por el impacto de neutrones atmosféricos. Estos efectos pueden provocar severos problemas a los sistemas informáticos con interfaces analógicas desde las que obtienen datos para el procesamiento y se han convertido en uno de los problemas más graves a los que tienen que hacer frente los diseñadores de sistemas de alta escala de integración. Casos típicos son los Sistemas en Chip que incluyen módulos de procesamiento de altas prestaciones como las interfaces analógicas.El proyecto persigue como objetivo general estudiar la susceptibilidad de sistemas informáticos a ASETs en sus secciones analógicas, proponiendo estrategias para la mitigación de los errores.Como objetivos específicos se pretende: -Proponer nuevos modelos de ASETs basados en simulaciones en el nivel dispositivo y resueltas por el método de elementos finitos.-Utilizar los modelos para identificar las secciones más propensas a producir errores y consecuentemente para ser candidatos a la aplicación de técnicas de endurecimiento a radiaciones.-Utilizar estos modelos para estudiar la naturaleza de los errores producidos en sistemas de procesamiento de datos.-Proponer soluciones novedosas para la mitigación de estos efectos en los mismos circuitos analógicos evitando su propagación a las secciones digitales.-Proponer soluciones para la mitigación de los efectos en el nivel sistema.Para llevar a cabo el proyecto se plantea un procedimiento ascendente para las investigaciones a realizar, comenzando por descripciones en el nivel físico para posteriormente aumentar el nivel de abstracción en el que se encuentra modelado el circuito. Se propone el modelado físico de los dispositivos MOS y su resolución mediante el Método de Elementos Finitos. La inyección de cargas en las zonas sensibles de los modelos permitirá determinar los perfiles de los pulsos de corriente que deben inyectarse en el nivel circuito para emular estos efectos. Estos procedimientos se realizarán para los distintos bloques constructivos de las interfaces analógicas, proponiendo estrategias de mitigación de errores en diferentes niveles.Los resultados esperados del presente proyecto incluyen hardware para detección de errores y tolerancia a este tipo de eventos que permitan aumentar la confiabilidad de sistemas de tratamiento de la información, así como también nuevos datos referentes a efectos de la radiación en semiconductores, nuevos modelos de fallas transitorias que permitan una simulación de estos eventos en el nivel circuito y la determinación de zonas sensibles de interfaces analógicas típicas que deben ser endurecidas para radiación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo que persigue un proceso de auditoría de estados contables es la comunicación por parte del auditor de una conclusión en relación al grado de razonabilidad con que tales estados reflejan la situación patrimonial, económica y financiera del ente de acuerdo a los criterios plasmados en las normas contables de referencia a ser utilizadas. El hecho que un auditor emita una conclusión errónea como consecuencia de su labor puede implicar la asunción de responsabilidades profesionales, civiles y penales como consecuencia de reclamos de usuarios de los estados contables que pudieran haberse visto perjudicados como consecuencia de la emisión de la conclusión errónea. Las normas contables a nivel nacional e internacional admiten la existencia de errores u omisiones en la información contenida en los estados contables, en la medida que tales desvíos no provoquen en los usuarios interesados en tales estados una decisión distinta a la que tomarían en caso de no existir los errores u omisiones aludidos. De lo expuesto en el párrafo anterior surge la cabal importancia que la determinación del nivel de significación total (nivel de desvíos admitidos por los usuarios de los estados contables en la información por ellos contenida) adquiere en los procesos de auditoría, como así también la asignación de tal nivel entre los distintos componentes de los estados contables (asignación del error tolerable) a los efectos de que los auditores eviten asumir responsabilidades de índole profesional, civil y/o penal. Hasta el momento no se conoce la existencia de modelos matemáticos que respalden de modo objetivo y verificable el cálculo del nivel de significación total y la asignación del error tolerable entre los distintos elementos conformantes de los estados contables. Entendemos que el desarrollo e integración de un modelo de cuantificación del nivel de significación total y de asignación del error tolerable tiene las siguientes repercusiones: 1 – Representaría para el auditor un elemento que respalde el modo de cuantificación del nivel de significación y la asignación del error tolerable entre los componentes de los estados contables. 2 – Permitiría que los auditores reduzcan las posibilidades de asumir responsabilidades de carácter profesional, civil y/o penales como consecuencia de su labor. 3 – Representaría un principio de avance a los efectos de que los organismos emisores de normas de auditoría a nivel nacional e internacional recepten elementos a los efectos de fijar directrices en relación al cálculo del nivel de significación y de asignación del error tolerable. 4 - Eliminaría al cálculo del nivel de significación como una barrera que afecte la comparabilidad de los estados contables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las tareas de investigación involucran tres subproyectos interdependientes: A. Caracterización de muestras extensas. B. Caracterización de muestras delgadas y multiminares. C. Caracterización de partículas y aplicación a la contaminación ambiental. Se prevé utilizar la técnica de Monte Carlo para predecir espectros de FRX con sistema dispersivo en energías. Este mismo método será utilizado para describir la distribución angular de los electrones retrodifundidos para incidencia normal y no normal, y también para mejorar la descripción de la función distribución de ionizaciones f(pz) utilizando secciones eficaces realistas. Paralelamente, se desarrollarán modelos de los parámetros fo, go y h que determinan la función distribución de ionizaciones f(pz). Del mismo modo, se estudiará la caracterización de muestras delgadas y estratificadas. Para ello se realizarán simulaciones Monte Carlo utilizando los resultados previstos en el párrafo anterior y se harán determinaciones experimentales con la microsonda electrónica de sistemas multilaminares simples y multicomponentes. Se extenderán las aplicaciones del programa MULTI desarrollado en nuestro grupo para cuantificación de muestras extensas, láminas delgadas y partículas. En este sentido se implementará un algoritmo para cuantificar muestras con picos no detectables, se evaluarán los errores en las concentraciones calculadas y se incluirá el reforzamiento por fluorescencia con las líneas K beta. Por otro lado, se implementará de un método de procesamiento de datos para el análisis de partículas en EPMA y su aplicación al estudio de la contaminación ambiental mediante el procesamiento de imágenes para la caracterización morfológica y química de partículas en suspensión, análisis de clusters. El objetivo final es la identificación y caracterización de fuentes de contaminación. Esta tarea será complementada con análisis global de la composición química en muestras de materia particulada mediante FRX, y el estudio de sus parámetros físicos mediante el método de simulación Monte Carlo. Se mejorará la estructura experimental de nuestro laboratorio poniendo en funcionamiento un microscopio electrónico Cambridge Stereoscan cedido por la Universidad de Barcelona conjuntamente con la capacidad analítica que ha sido adquirida para extender sus posibilidades de aplicación, y se instalará un equipo de FRX desarrollado en nuestro grupo con accesorios recientemente adquiridos. El desarrollo y solución de los problemas propuestos permitirá mejorar la formación integral de estudiantes en distintas etapas de su carrera de doctorado y recientemente doctorados, ya que presentan además de un aspecto básico, uno aplicado, pues tienden a la solución de situaciones concretas de interés biológico, ambiental y tecnológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas disciplinas científicas tales como la Psicología, las neurociencias, la psicología evolutiva, la inteligencia artificial, la lingüística, etc., abordan el estudio de los fenómenos mentales desde diferentes ángulos y con presupuestos y metodologías particulares. Por otra parte, en el marco disciplinario de la filosofía de la mente, especialmente en los últimos años, se han encarado investigaciones en torno a distintos tópicos especiales (representación, causación mental, intencionalidad, procesamiento de información, fenómenos cualitativos, subjetividad, auto-conocimiento, etc.) que han sido discutidos en diferentes niveles de análisis: ontológico, epistemológico, metodológico, semántico. Esta situación trae como consecuencia el desarrollo de investigaciones paralelas cuyas vinculaciones sólo excepcionalmente son advertidas, e incluso en el caso de algunas disciplinas aplicadas, ni siquiera se consideran los resultados de las indagaciones teóricas, lo que las lleva a incurrir tanto en errores conceptuales como la interpretación. (...) En la anterior etapa de investigación hemos logrado realizar un relevamiento general, en algunas de las disciplinas mencionadas, de los distintos marcos conceptuales y explicativos empleados en teorías de la intencionalidad. En esta nueva etapa nos proponemos analizar y evaluar las principales dificultades y discusiones epistemológicas implicadas en el intento de construir una única teoría global acerca de lo mental, vinculando diferentes disciplinas. (...) En esta primera etapa prevemos abordar el problema planteado abocándonos al estudio de una temática especial, presente en los desarrollos teóricos de las distintas disciplinas e ineludible para la construcción de una teoría transdisciplinaria acerca de los fenómenos mentales: el problema de la conciencia. (...) Objetivos específicos: 1. Examinar las teorías alternativas de la conciencia (empíricas y filosóficas) discriminando en especial sus presupuestos epistemológicos. 2. Comparar los marcos teóricos globales que se desprenden de las teorías de la conciencia con las interpretaciones que de ella se postulan en los distintos contextos disciplinarios (psicología, lingüística, etc.). 3. Evaluar la viabilidad de una teoría unitaria de la conciencia, atendiendo a las condiciones de adecuación epistemológica de acuerdo con un enfoque interdisciplinario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente proyecto se pretende explorar si los textos que se requieren a los alumnos responden a las características y exigencias de los textos de mayor circulación social que supuestamente serán requeridos por la sociedad una vez que los niños egresan de la etapa de escolaridad obligatoria. Un primer análisis de los textos escritos por los alumnos, registrados en sus cuadernos como "tareas de composición" permitió observar transformaciones sustanciales que los distancian notablemente de las características y estructuras esenciales definidas por la lingüística textual y la pragmática discursiva. El objetivo de este estudio es analizar la distancia que separa los textos escolares de los textos sociales desde una perspectiva de los estudios actuales de transposición didáctica. Se caracteriza a la transposición didáctica como un proceso complejo de transformaciones adaptativas mediante el cual el conocimiento elaborado en el plano científico se convierte en conocimiento escolarizado. En el proyecto se propone explorar las transformaciones que se producen en la enseñanza del lenguaje escrito, focalizando el análisis en dos planos: 1. El plano textual pretende: detectar la distancia que se produce en el contexto de producción y los textos de circulación social con las condiciones de producción efectivamente por los alumnos. Además, comparar las características configuracionales y discursivas que identifican a los textos sociales y escolares. 2. Plano ortográficos tal como son descriptos por la disciplina de referencia y como son vehiculizados en el aula. Interesa elaborar categorías de transposición didáctica al lenguaje escrito, planos de análisis para describir las transformaciones que se producen durante el proceso de pedagogización del saber. Al evidenciar las transformaciones que se infringe al lenguaje escrito como consecuencia de ciertas prácticas pedagógicas, se pretende contribuir a repensar las mismas con el propósito de neutralizar los efectos distorsionantes de la transposición didáctica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La contabilidad a través de los estados financieros, concebidos como instrumentos que proporcionan un resumen de la situación patrimonial de las organizaciones y de sus evoluciones económicas y financieras, cumple un trascendente rol en la sociedad que consiste en suministrar información a ser utilizada en los procesos decisorios de los principales agentes que intervienen en la economía (inversores, acreedores, empleados, sindicados, mercados de valores, clientes, proveedores, estado, etc.). La importancia que fueron adquiriendo los estados financieros, como satisfactores de las demandas informativas de los interesados en su contenido, produjo la imperiosa necesidad de contar con una seguridad razonable de que la información incorporada en los mismos se encuentre libre de errores u omisiones significativos, que pudieran distorsionar las decisiones a ser tomadas por sus usuarios. Fue de este modo que la auditoría de estados financieros, dentro de los servicios de que agregan credibilidad a la información, se erigió en el proceso destinado a tal fin. En este contexto, la auditoría de estados financieros se convirtió en el proceso estructurado, llevado a cabo por un auditor independiente, con vistas a arribar a una conclusión respecto a si la información contenida por los estados financieros, refleja razonablemente o no la situación patrimonial y la evolución económica y financiera de una organización por el período que abarcan, conforme a las disposiciones consagradas en ordenamiento contable utilizado como referencia. El riesgo de auditoría, concebido como la medida que refleja la posibilidad de que el auditor arribe a una conclusión equivocada respecto de la forma en que los estados contables reflejan la situación patrimonial y la evolución económica y financiera por el período que comprenden, adquiere una relevancia inusitada dentro del proceso de auditoría de estados financieros. Los principales ordenamientos en materia de auditoría de estados financieros proponen una metodología de cálculo del riesgo de auditoría en donde el mismo se concibe como el producto de los siguientes componentes: a) riesgo inherente (posibilidad de que la información contenida por los estados financieros contenga errores u omisiones significativas en si misma), b) riesgo de falta de control (posibilidad de que el sistema de control interno no prevenga, detecte o corrija errores u omisiones propios de la información contenida por los estados financieros en si misma), y c) riesgo de falta de detección (posibilidad de que información con errores u omisiones no siendo prevenida, detectada o corregida por el sistema de control interno tampoco sea advertida como consecuencia de la aplicación de los procedimientos de auditoría). Existió un primer enfoque en relación a forma de determinación del riesgo de auditoría que se caracterizó por: a) una concepción reducida de los posibles factores determinantes de los diferentes tipos de riesgos, b) una visión transaccional y desintegrada de la organización y de la información, y c) una valoración de los riesgos apoyada fuertemente en el criterio profesional del auditor. La referida orientación en relación a los aspectos metodológicos de determinación del riesgo de auditoría, denominada “enfoque tradicional”, fue identificada por académicos y profesionales, como la principal causa del fracaso de la auditoría de estados financieros en reconocidos escándalos financieros (casos: Enron, Worldcom, Parmalat, etc.) que trajeron aparejadas un conjunto de consecuencias sociales de profundo impacto (cuantiosas pérdidas económicas, descrédito de la auditoría como proceso que agrega credibilidad a la información contenida en los estados financieros, sanciones de naturaleza penal, civil y profesional a auditores e integrantes de organismos encargados de controlar la ejecución de auditorias, etc.) A los efectos de superar las deficiencias del enfoque tradicional, relacionado con la metodología de determinación del riesgo de auditoría, se desarrolló un nuevo enfoque, conocido como auditoría basada en riesgos, el cual se caracteriza por: a) una concepción amplia de los posibles factores que inciden sobre los componentes del riesgo de auditoría, b) una visión estratégica, sistémica e integrada de la organización y de la información generada por ella y c) la pretensión de la utilización de herramientas objetivas en la valoración de riesgos. La auditoría basada en riesgos ataca el corazón mismo de la auditoría de estados financieros que es el modelo de riesgos de auditoría, haciendo foco en los riesgos de negocio de las organizaciones. El presente proyecto de investigación tiene la pretensión de colaborar como un eslabón más en la instauración del enfoque de auditoría basada en riesgos, aportando un modelo integrado de cuantificación de riesgos que identifique el grado de influencia que cada uno de los factores determinantes del riesgo de negocio tiene respecto de cada uno de los componentes que definen al riesgo de auditoría.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto busca profundizar lo incorporado como método de análisis, a partir de lo realizado en el proyecto anterior, relativo a la Fragilidad por Hidrógeno en Metales Ferrosos. Sobre la base de lo actuado, se pretende aplicar el método científico de análisis a las fallas en casos que ocurren en la práctica y que tienen como origen errores en el diseño, construcción o mantenimiento de componentes o sistemas. Procesos industriales que aplican técnicas de fabricación o construcción de componentes, frecuentemente fallan por un uso erróneo de los mismos, ya sea por mala práctica o bien por desconocimiento de las variables que los gobiernan. Mediante la aplicación del método científico se busca llegar a las primeras causas de las fallas y a partir del entendimiento de las mismas generar prevención para futuros casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se propone: 1- Formular y analizar los problemas actuales en las técnicas de inyección de fallas para estimar SER (Single Event Response) en los circuitos integrados, aplicandolas luego para evaluar la tolerancia a fallos de diferentes circuitos integrados analógicos/digitales. El objetivo general que se persigue es proporcionar una solución que permita realizar, de forma rápida, eficaz y a bajo costo, la inyección de fallos en los circuitos analógicos y digitales. 2- Estudiar una aproximación no intrusita de detección de fallos en CI, combinando técnicas de hardware y software para detectar errores transitorios en circuitos analógicos y digitales. Este tipo de fallos transitorios tienen una influencia importante en sistemas de microprocesadores, que afectan al flujo de datos y a la etapa de control. Con el fin de proteger el sistema, un módulo de hardware orientado a la aplicación se generará automáticamente, reconfigurándose en el sistema durante el tiempo de ejecución. Cuando se combina esto con técnicas de tolerancia a fallas basadas en programación (Software), esta solución ofrece una protección total del sistema contra fallos transitorios. La campaña de inyección de fallas se planea realizar en un microprocesador MIPS, ejecutando algún programa de evaluación, con ayuda de una plataforma genérica y versátil desarrollada en TIMA (Francia). 3- Comparar los resultados obtenidos del estudio de las técnicas de inyección con los resultados experimentales, a partir de ensayos de radiación (aceleradores de partículas, micro rayos, etc.) al exponer a los circuitos a posibles fuentes de fallas.