1000 resultados para Métodos de espaço de estados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Este estudo buscou derivar equações generalizadas para predição da carga máxima para homens e mulheres jovens. MÉTODOS: O método da ergoespirometria direta (Aerosport® TEEM 100, Estados Unidos da América do Norte) foi empregado para determinar o VO2máx e a carga máxima (Wmáx), no cicloergômetro (Monark®, Brasil), de 30 homens (25 ± 5 anos, 75,0 ± 10,7 kg; 48,4 ± 8,8 mL . kg -1 . min -1 e 243 ± 51 Watts) e 30 mulheres (26 ± 5 anos, 56,7 ± 5,9 kg, 39,8 ± 7,6 mL . kg -1 . min -1 e 172 ± 37 Watts). A idade e a massa corporal foram empregadas como variáveis independentes. Para todos os testes estatísticos aceitou-se o nível de significância de p < 0,05. RESULTADOS: No ajuste linear múltiplo a carga máxima foi explicada pela da idade e massa corporal em 54% (r = 0,73), para homens, e em 76% (r = 0,87), para mulheres, com erros padrões respectivamente de 0,66 W . kg -1 e de 25 Watts. As equações propostas passaram pela validação cruzada, empregando-se outra amostra com características similares de idade e VO2máx composta por 15 homens e 15 mulheres. A correlação intraclasse entre os valores de Wmáx preditos e os medidos através da ergoespirometria foram de 0,70 e 0,69, com erros padrões de 28,4 e 15,8 Watts, respectivamente, para homens e mulheres. CONCLUSÃO: Este estudo exibe equações generalizadas válidas para determinação da carga máxima no cicloergômetro para homens e mulheres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Si bien la responsabilidad internacional de los Estados es una institución tradicional del Derecho Internacional, durante la última década ha sido objeto de gran desarrollo y evolución. En efecto, la adopción en 2001 del Proyecto de Responsabilidad Internacional por Hechos Ilícitos de los Estados de la Comisión de Derecho Internacional de Naciones Unidas y los graves acontecimientos sucedidos en la última década (principalmente como consecuencia de los atentados del 11 de septiembre 2001) han puesto a esta tradicional institución jurídica en el centro de atención de la comunidad internacional. Así, la realidad del nuevo contexto internacional plantea nuevos y graves desafíos, que fuerzan al límite la interpretación de las normas jurídicas que conforman el régimen general de responsabilidad internacional de los Estados. El interés por esta materia también se manifiesta por la rica labor que ha tenido la jurisprudencia internacional en los últimos años. Paralelamente, cada vez con mayor intensidad se han multiplicado los regímenes especiales de responsabilidad internacional, vale decir aquellas normas que en forma específica y con carácter prioritario regulan la responsabilidad de los Estados en determinadas áreas de sus relaciones internacionales (comercio internacional, inversiones, integración, medio ambiente, energía atómica, Derechos Humanos, etc.). Asimismo, la responsabilidad internacional del Estado ha adquirido en el contexto actual diversas manifestaciones en distintos sectores o materias específicas y en casos concretos que merecen ser analizados (uso de la fuerza armada, terrorismo, medioambiente, comercio internacional, inversiones, integración, Derechos Humanos, etc.). En este contexto, el proyecto pretende analizar la responsabilidad internacional de los Estados desde una amplia dimensión, abarcando desde sus fundamentos teóricos hasta los principales desafíos que le plantea el contexto internacional actual

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar as tendências do risco de morte por doenças isquêmicas do coração e cerebrovasculares, nas regiões Norte, Nordeste, Centro-Oeste, Sudeste e Sul do Brasil, no período de 1981 a 2001. MÉTODOS: Dados de mortalidade por doenças isquêmicas do coração e cerebrovasculares nas cinco regiões brasileiras foram obtidos através do Ministério da Saúde. A fonte de dados foi o Sistema de Informações sobre Mortalidade (SIM), do Departamento de Análise da Informação de Saúde - Secretaria de Vigilância em Saúde do Ministério da Saúde. A população das regiões e estados teve por fonte o IBGE, censos 1991 e 2000, contagem populacional de 1996 e estimativas populacionais, disponibilizado pelo Datasus. Os dados do SIM foram relativos às seguintes causas de morte: doença cerebrovascular (Código Internacional de Doenças CID-9 430-438, CID-10 I60-I69) e a doença isquêmica do coração (CID-9 410-414, CID-10 I21-I25). O estudo estatístico utilizou-se para as análises inferenciais de modelos lineares generalizados ajustados. RESULTADOS: A tendência da mortalidade por doença cerebrovascular mostrou declínio nas regiões Sudeste, Sul e Centro-Oeste em todas as faixas etárias e sexo. Também a mortalidade por doença isquêmica do coração declinou nas regiões Sudeste e Sul, com estabilização do risco na região Centro-Oeste e aumento na região Nordeste. CONCLUSÃO: O risco de morte para as doenças circulatórias, cerebrovasculares e isquêmicas do coração diminuiu no Sul e no Sudeste, regiões mais desenvolvidas do país, e aumentou nas menos desenvolvidas, principalmente no Nordeste.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1) Estudios bioquímicos, inmunológicos e histológicos en encefalomielitis alérgica experimental (EAE): comprende el análisis de las diferentes alteraciones que ocurren en SNC durante el desarrollo de esta patología experimental. Se tratará de acotar los diferentes procesos que participan en la inducción activa de la enfermedad por inyección de antígenos de mielina, pasiva por sensibilización con diferentes poblaciones linfocitarias provenientes de animales enfermos, posterior recuperación o supresión de las diferentes alteraciones neuropatológicas por inducción de procesos de tolerancia inmunológica con antígenos mielínicos o sinaptosomales. Teniendo en cuenta la reacción inmunológica cruzada previamente descripta entre la proteína básica de mielina y sinapsina, se continuará con la caracterización de las poblaciones de linfocitos T que reconocen ambas proteínas por ensayos in vitro e in vivo. 2) Mecanismos de acción de enterotoxinas bacterianas: se estudia la posible participación de glicoconjugados (glicolípidos, mucinas y glicoproteínas de membrana) con actividad de grupo sanguíneo ABO (H) en relación al mecanismo de acción de algunas enterotoxinas bacterianas como toxina colérica y toxinas lábiles al calor producidas por E. coli aisladas de cepas que colonizan intestino humano (LTh) o porcino (LTp). Los objetivos específicos son extender nuestros estudios previos al intestino humano porque estas patologías afectan al hombre y además las estructuras químicas de los glicoconjugados en estudio son más variadas y están mejor dilucidades que en las especies animales anteriormente estudiadas (cerdo, conejo). Además, se planea realizar ensayos in vitro mediante la técnica de segmentos ligados de intestino de conejo con el objeto de estudiar si los glicolópidos y glicoproteínas de membrana con actividad de grupo sanguíneo ABH se comportan como receptores funcionales de alguna de las toxinas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existen antecedentes previos realizados en nuestro laboratorio, que demuestran que la aplicación de una sesión de electroshock mínimo (MES) es capaz de revertir la muerte neuronal en el hipocampo producida como consecuencia de la adrenolectomía. Teniendo en cuenta estos resultados es importante determinar si la acción protectiva neuronal, que es inducida por la aplicación de MES, se puede extender a otros tipos de muerte neuronal. Para ello se estudiará, en dos modelos experimentales distintos, en los cuales existe daño neuronal, si la aplicciónde MES también puede ejercer protección neuronal. En estos dos modelos de la muerte neuronal se produce en diferentes regiones cerebrales. Un modelo es la destrucción de células dopaminérgicas, producidas por la administración intracerebral, en la sustancia nigra, de la neurotoxia 6/OHDA (modelo de enfermedad de Parkinson). El otro modelo resulta de la administración sistémica del agonista glutamaérgico. Este induce la manifestación de estatus epilépticus con la consecuente detrucción de ciertas poblaciones neuronales principalmente en el hipocampo, amígdala y corteza entrhinal. Asimismo este proyecto propone estudiar la posible participación de algunos factores tróficos en la protección neuronal inducida por la aplicación de algunos de MES. Para ello se determina la distribución y los niveles de algunos de los factores tróficos y sus receptores después de la administración de MES. Los experimentos propuestos indican el estudio de los mecanismos celulares y moleculares que podrían participar en los fenómenos de muerte celular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto de investigación propuesto tiene como principal objetivo profundizar en el estudio de la Mecánica Estadística y su aplicación a la resolución de problemas en esta área. Los temas de interés son los siguientes: 1. Estudio de la influencia del desorden en las propiedades dinámicas y termodinámicas de sistemas clásicos y cuánticos. 2. Reacciones controladas por difusión; influencia de campos externos aplicados. 3. Estudio de la influencia de la autocorrelación temporal finita sobre un sistema excitado por un ruido (ruido coloreado). 4. Resonancia Estocástica analizada a través de la función de Estructura Dinámica. 5. Estudio de procesos de quimiorrecepción de sistemas biológicos. 6. Cálculo del operador de evolución temporal para sistemas con Hamiltonianos dependientes del tiempo (Fase de Berry). 7. Influencia del desorden en la estadística del tiempo del primer pasaje en sistemas finitos. 8. Estudio del modelo de "Tight Binding" con desorden estático. Objetivos específicos * Se continuará con el estudio de la evolución temporal para sistemas Hamiltonianos dependientes del tiempo (Fase de Berry). * Se estudiará de las propiedades termodinámicas de sistemas Hamiltonianos clásicos y cuánticos con desorden estático. * Se estudiará la probabilidad de supervivencia y los momentos de desplazamientos para partículas que difunden en un sistema unidimensional con trampas estáticas. En particular se tratará el caso de campo fuerte, extendiendo los resultados ya obtenidos en el caso de campo débil; se analizará la conexión con la estadística del tiempo del primer pasaje. * Se continuará con el estudio analítico de los exponentes críticos para Modelos de la Mayoría. (...) * Se realizará un estudio detallado de las propiedades de la función de estructura dinámica asociada con el movimiento uni-dimensional de partículas sometidas a potenciales anarmónicos con múltiples pozos y fricción débil. Se estudiará el fenómeno de resonancia estocástica a través de la función de estructura dinámica. * Se estudiará la estadística del tiempo del primer pasaje en sistemas finitos homogéneos y desordenados con diversas condiciones de entorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivos generales y específicos: * "Large Deviations" no-comutativas. (...) * Propiedades (sobre todo extremales) de la entropía relativa. (...) * Estados fundamentales de sistemas (de spins) cuánticos. (...) Pero se espera sobre todo concentrar esfuerzos en los siguientes dos proyectos: 1. Termodinámica de equilibrio para modelos con desorden. Se pretende continuar con los estudios acerca de los aspectos termodinámicos y dinámicos de modelos importantes en el ámbito de los sistemas desordenados. (...) El principal interés concierne a la mecánica estadística de sistemas de spines cuyas constantes de interacción tienen componentes aleatorias. Estos modelos están relacionados con los modelos conocidos como vidrios de spin y el principal objetivo consiste en obtener información acerca de los diagramas de fases. (...) 2. Efectos no-adiabáticos en dinámica molecular. El proyecto tiene como objetivo general el estudio de aspectos conceptuales y computacionales de la dinámica de sistemas que involucran dos tipos de grados de libertad asociados usualmente con masas muy diferentes. Tal es el caso de los sistemas moleculares en los cuales las masas nucleares y electrónicas difieren en tres órdenes de magnitud. La investigación se centrará en situaciones en que falla la hipótesis (usual) de adiabaticidad. (...) Se estudiarán en un principio las bases matemáticas y conceptuales de los algoritmos de cálculo numérico conocido como "surface hopping methods". (...) Se reexaminará la base teórica de los métodos actuales para el estudio de fenómenos no adiabáticos. Se intentará el desarrollo de nuevos algoritmos de cálculo basados en las expansiones asintóticas de Hagedorn.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Avaliar as diferenças entre três métodos para medida do infarto experimental em ratos, em relação ao método tradicional. MÉTODOS: A área infartada por histologia (AREA), o perímetro interno da cavidade infartada por histologia (PER) e o perímetro interno por ecocardiograma (ECO) foram comparados ao método tradicional (análise histológica das circunferências epicárdicas e endocárdicas da região infartada - CIR). Utilizaram-se ANOVA de medidas repetidas, complementada com o teste de comparações múltiplas de Dunn, o método de concordância de Bland & Altman e o teste de correlação de Spearman. A significância foi p < 0,05. RESULTADOS: Foram analisados dados de 122 animais, após 3 a 6 meses do infarto. Houve diferença na avaliação do tamanho do infarto entre CIR e os outros três métodos (p < 0,001): CIR = 42,4% (35,9-48,8), PER = 50,3% (39,1-57,0), AREA = 27,3% (20,2-34,3), ECO = 46,1% (39,9-52,6). Assim, a medida por área resultou em subestimação de 15% do tamanho do infarto, enquanto as medidas por ecocardiograma e pelo perímetro interno por meio de histologia resultaram em superestimação do tamanho do infarto de 4% e 5%, respectivamente. Em relação ao ECO e PER, apesar de a diferença entre os métodos ser de apenas 1,27%, o intervalo de concordância variou de 24,1% a -26,7%, sugerindo baixa concordância entre os métodos. Em relação às associações, houve correlações estatisticamente significativas entre: CIR e PER (r = 0,88 e p < 0,0001); CIR e AREA (r = 0,87 e p < 0,0001) e CIR e ECO (r = 0,42 e p < 0,0001). CONCLUSÃO: Na determinação do tamanho do infarto, apesar da alta correlação, houve baixa concordância entre os métodos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comprender cómo una proteína adquiere su conformación tridimensional específica es un problema clave para la biología celular y molecular. Es un entretenido desafío intelectual y un problema de considerable importancia tecnológica debido al interés de expresar proteínas recombinantes biológicamente activas. Un fuerte incentivo es poder describir cómo ocurre el plegamiento en el medio celular, acoplado a la biosíntesis de la proteína y probablemente codificado por la secuencia primaria. La mayor parte de la información que disponemos, sin embargo, proviene de estudios estructurales, cinéticos, bioquímicos y termodinámicos in vitro de proteínas maduras. Particularmente importante pata la comprensión del problema del plegamiento ha sido la descripción de las rutas seguidas y de los estados intermedios de este proceso. Uno de estos estados intermedios es el glóbulo fundido: es un estado conformacional en el cual la proteína conserva su estructura terciaria. La proteína se encuentra parcialmente desplegada pero su grado de compactación es similar al del estado nativo. Aunque solo algunas proteínas pueden ser asimiladas en esa conformación, es aceptado que el glóbulo fundido es intermedio cinético entre la estructura nativa y la desplegada existencia universal. El estudio de proteínas en el estado de glóbulo fundido no sólo es relevante para comprender los procesos de plegamiento, sino también la inserción y translocación de proteínas solubles e intrínsecas en membranas lipídicas. (...) El objetivo general de este proyecto es estudiar las interacciones de proteínas en estados conformacionales intermedios con membranas lipídicas. El propósito es contribuir al conocimiento de los mecanismos por los cuales una proteína soluble puede, en ciertas circunstancias, penetrar y atravesar una membrana lipídica y estudiar de que manera el ambiente lipídico participa en el procesos de plegamiento de una proteína de membrana. Como modelo experimental se utilizará inicialmente a-lactoalbúmina, cuyo intermediario de plegamiento estable es el más estudiado y con la cual este grupo de trabajo posee experiencia. Se explorará también la posibilidad de utilizar otras proteínas, como anhidrasa carbónica, cuyos intermediarios de plegamiento pueden ser aislados. Se estudiarán particularmente los siguientes aspectos: 1. Estabilidad del intermediario en membrana 2. Estructura de intermediarios en membranas lipídicas. (...)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La etapa de optimización de una droga denominada "Preformulación" está dirigida a definir el perfil de una droga desde el punto de vista de su identidad, pureza y potencia. Mediante la determinación de las propiedades físico-químicas que son relevantes en la formulación de un agente terapéutico es posible realizar una evaluación preliminar sobre las características de absorción del principio activo, por parte del organismo. (...) En la actualidad se elaboran en la Oficina de Farmacia "Formas Farmacéuticas" de cierta complejidad, que no pueden ser analizadas por los clásicos métodos químicos, sino que requieren de técnicas de instrumental modernas altamente selectivas y sensibles. Este tipo de estudio no puede realizarse fuera de los laboratorios oficiales de Control o del ámbito universitario, en razón del costo del equipamiento y las condiciones necesarias para su correcto funcionamiento. El análisis de los principios activos y de los productos farmacéuticos con ellos elaborados es responsabilidad tanto de la autoridad reguladora como el propio farmacéuticas que serán administradas al paciente. Es por ello que esta propuesta involucra el desarrollo de metodologías analíticas específicas y sensibles que permitan, en forma rápida, determinar la composición de las formas farmacéuticas que se comercializan, para "garantizar", dentro de los límites admisibles, la "calidad", requisito previo para una terapéutica medicamentosa eficaz y racional. Estudios realizados en diferentes países, demuestran el desarrollo significativo que ha tenido la Cromatografía Líquida de Alta Presión (HPLC) y la Espectrofotometría de Derivadas en el campo farmacéutico, permitiendo el análisis de drogas en presencia de sus productos de degradación o bien en mezclas de multicomponentes, aplicando distintas técnicas Espectroscópicas, como IR, RMN y EM en la determinación de estructuras. Por tal motivo, este proyecto apunta a desarrollar metodologías analíticas aplicables al análisis y determinación simultánea de los principios activos contenidos en formulaciones farmacéuticas. En este caso particular se propone el estudio de preparaciones galénicas (comprimidos) utilizadas como complemento en regímenes alimenticios, debido a la acción farmacológica de los ingredientes activos, al uso intensivo de las mismas en la Provincia de Córdoba y a la falta de Control de Calidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Buscando delinear o perfil da ablação curativa de fibrilação atrial (FA) no Brasil, a Sociedade Brasileira de Arritmias Cardíacas (SOBRAC) idealizou o Registro Brasileiro de Ablação da FA. OBJETIVO: Descrever os resultados desse registro. MÉTODOS: Foi enviado um formulário aos sócios da SOBRAC, inquirindo sobre os dados de pacientes submetidos a ablação de FA entre setembro de 2005 e novembro de 2006. RESULTADOS: No total, 29 grupos, de 13 Estados, responderam ao formulário. Desses, 22 (76%) realizaram ablações de FA. Entre 1998 e 2001, 7 grupos (32%) iniciaram ablações de FA e entre 2002 e 2006, 15 grupos (68%). De 1998 a 2006, 2.374 pacientes foram submetidos a ablação, sendo 755 (32%) no período do registro. A maioria (70%) era do sexo masculino e 89% apresentavam FA paroxística ou persistente. Métodos auxiliares de imagem (ecocardiografia intracardíaca e mapeamento eletroanatômico) foram utilizados por 9 grupos (41%). Durante seguimento médio de cinco meses, o sucesso total foi de 82% e o sucesso sem uso de antiarrítmicos foi de 57%. Contudo, 35% dos pacientes necessitaram de dois ou mais procedimentos. Houve 111 complicações (14,7%) e 2 óbitos (0,26%). CONCLUSÃO: A ablação curativa de FA vem crescendo significativamente em nosso País, com taxas de sucesso comparáveis às internacionais, mas comumente há necessidade de mais de um procedimento. Apesar dos resultados promissores, a ablação de FA ainda acarreta morbidade significativa. Métodos auxiliares de imagem têm sido cada vez mais utilizados, visando a aumentar a eficácia e a segurança do procedimento. Esses achados devem ser considerados pelos órgãos pagadores públicos e privados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya tres décadas se conoce que el neonato, aún desde los primeros minutos de vida, puede responder a una gran variedad de olores, entre los cuales se encuentra el alcohol, con reacciones comportamentales y neurovegetativas específicas y que es capaz también de diferenciarlo de otros estímulos, lo que se puso de manifiesto a través de un proceso de habituación. La habituación, que es un proceso de aprendizaje no asociativo, se ha transformado en un parámetro valioso en el estudio del desarrollo de la plasticidad neurocomportamental en distintas especies, tanto en períodos perinatales como prenatales. En la esfera humana, se ha comprobado que el recién nacido puede habituar o sensitizar una respuesta refleja y responder de manera compleja a estimulación sensorial específica. Estudios realizados con claves olfatorias, tanto nóveles como biológicas, demuestran que el neonato puede reconocer y distinguir distintos olores y que la manera en que éste responde varía de acuerdo ala experiencia previa con el estímulo, manifestando preferencia por el olor que le resulta familiar, sin que necesariamente sea éste un olor materno. Estas tempranas capacidades de aprendizaje han sido útiles para evaluar la integridad del SNC fetal y neonatal, utilizando, por ejemplo, índices de habituación hacia distintos estímulos. Basándose en los resultados de estas investigaciones surge el objetivo general del proyecto: realizar un relevamiento de las capacidades de aprendizaje y memoria neonatales utilizando paradigmas de aprendizaje no asociativo como la habituación a claves olfativas nóveles (alcohol y limón), analizando la respuesta a los olores a través de patrones comportamentales y neurovegetativos presentes en el neonato a término. Este objetivo se irá desarrollando a lo largo de etapas experimentales consecutivas. En la primera de ellas, actualmente en ejecución, el propósito es evaluar respuestas habituatorias y de recuperación espontánea frente a la presentación secuencial de los aromas. En las etapas subsiguientes se pretendedetectar también deshabituación y habituación ala deshabituación. Este proyecto forma parte de un plan de actividades mayor referido a reconocimiento, retención y discriminación de claves olfativas a nivel neonatológico. A largo plazo se procura diseñar, valiéndose de las tempranas capacidades de aprendizaje presentes en neonatos normales, pruebas que se utilicen para evaluar el desempeño neurocomportamental de recién nacidos donde se sospeche un Sistema Nervioso Central dañado por efectos de la exposición prenatal de alcohol y/o por episodios hipóxicos pre o perinatales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.