10 resultados para Entendimiento de la Lectura. Matriz de Referencia de la Prueba Brasil

em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prueba pericial existe desde el Derecho Romano, y en la actualidad ha cobrado una inusitada importancia. En el presente proyecto se busca como primer objetivo narrar su evolución tanto espacial como temporal. Y el segundo objetivo fincaría en proponer reglas claraas que sirvan a la vez como elemento de instrucción social y asimismo como base para un reordenamiento jurídico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prueba pericial existe desde el Derecho Romano, y en la actualidad ha cobrado una inusitada importancia. En el presente proyecto se busca como primer objetivo narrar su evolución tanto espacial como temporal. Y el segundo objetivo fincaría en proponer reglas claraas que sirvan a la vez como elemento de instrucción social y asimismo como base para un reordenamiento jurídico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los polímeros son materiales que poseen una variedad muy grande de aplicaciones. Por esta razón, el estudio de sus propiedades físicas y químicas resulta de gran interés. Un polímero es una macromolécula cuyo peso molecular puede llegar a varios millones de umas. Mediante la selección de el o los monómeros y de su secuenciamiento en el proceso de polimerización (microestructura del polímero), se puede lograr que el material tenga propiedades predeterminadas. Es posible, entonces, encontrar o desarrollar polímeros para las más variadas aplicaciones: elásticos, rígidos, resistentes a la temperatura, conductores, aisladores, inertes, etc. (...) La Resonancia Magnética Nuclear (RMN) de alta resolución es una de las técnicas más poderosas para la caracterización de los polímeros, brindando información sobre la microestructura y la dinámica de estas macromoléculas, tanto cuando se encuentran en estado sólido como cuando están disueltas en soluciones líquidas. El entendimiento de la microestructura de un polímero es de interés porque ella está íntimamente relacionada con las propiedades macroscópicas del material. Por otra parte, la microestructura de un polímero depende del proceso de polimerización utilizado y en consecuencia, es posible obtener información sobre los mecanismos de reacción química que ocurren durante su síntesis, dentro de los reactores de polimerización. NMR permite, también, obtener información detallada sobre la dinámica de los polímeros. La gran longitud de los polímeros hace que su dinámica molecular sea sumamente compleja. Sin embargo, mediante el empleo de secuencias de pulsos particulares y mediciones de los tiempos de relajación característicos de los espines nucleares, se obtiene información sobre la dinámica de la macromolécula, de los segmentos que la componen y de los grupos colgantes que pueda poseer. Objetivos Generales y Específicos El trabajo a realizar en el período correspondiente al subsidio solicitado, es la continuación de las investigaciones comenzadas en septiembre de 1995. Se avanzará en el entendimiento de los elastómeros que se están estudiando actualmente. El estudio abarca los elastómeros sin tratamientos térmicos y con tratamientos térmicos (vulcanizados).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El descubrimiento de técnicas más sensibles para la detección del T. cruzi en el enfermo chagásico rescató el rol primordial del parásito en la patogenia y actualmente se considera a la enfermedad como el producto de la interacción de los genomas del parásito y el humano. Sin embargo aún queda por responder por qué el 30% de las personas infectadas evolucionan hacia una enfermedad cardíaca y el 70% permanece asintomático aunque con serología persistente; así como también la amplia variabilidad clínica, que puede resultar desde una cardiopatía sin consecuencias hasta producir muerte súbita. En este sentido, se ha descripto que la variabilidad genética del parásito debe estar relacionada con el tropismo del mismo a los diferentes órganos del huésped y, por lo tanto, con la forma clínica de la enfermedad y con las diferencias observadas luego del tratamiento específico de la enfermedad. Es por ello que proponemos determinar la importancia que tiene la composición genética del aislamiento de T. cruzi que infectó al huésped y/o la de los clones diferentes que pueden aparecer en sangre para explicar la amplia variabilidad de síntomas y signos que manifiestan los pacientes con cardiopatía chagásica crónica. Estos resultados contribuirán al entendimiento de la fisiopatogenia de la miocardiopatía chagásica y sus variabilidades clínicas y facilitarán establecer el pronóstico y tratamiento de la enfermedad. Pacientes que concurran al Hospital Materno Infantil de la Provincia de Córdoba, al Hospital Nacional de Clínicas y a la Clínica Sucre serán tratados de acuerdo con la declaración de Helsinki y firmarán consentimiento informado. Se seguirá la evolución clínico-cardiológica por radiografía, electrocardiografía y ecocardiografía. La serología para Chagas se determinará por HAI-ELISA. Se obtendrán muestras de sangre de estos pacientes que se clasificarán con serología positiva para Chagas sin cardiopatía, con cardiopatía leve y con cardiopatía severa. Extracción del ADN: las muestras de sangre periférica de cada paciente se mezclarán con igual volumen de guanidina 6M/EDTA 0,5M. El ADN se extraerá por técnicas convencionales con fenol:cloroformo:alcohol isoamílico y luego se precipitará con etanol. Finalmente la solución se resuspenderá en agua estéril libre de nucleasas. Se conservará a -4º C hasta su uso para la amplificación del contenido de ADN del parásito por la reacción en cadena de la polimerasa (PCR). PCR: la detección de los parásitos en cada muestra se determinará mediante la amplificación por PCR de un fragmento de la región variable correspondiente al minicírculo del ADN del kinetoplasto (kADN), utilizando primers específicos para dicha región. Análisis de la región variable del kADN por enzimas de restricción: la caracterización de los parásitos de cada muestra se realizará además mediante el análisis de los fragmentos producidos luego de la digestión con enzimas de restricción (RFLP). El amplificado producto de la PCR se utilizará para la digestión con las enzimas de restricción y los fragmentos obtenidos serán separados por electroforesis en geles de agarosa 2% teñidos con bromuro de etidio. Análisis de los resultados: Los perfiles de bandas obtenidos luego de la digestión con las enzimas de restricción de las muestras de sangre de los pacientes se correlacionarán con la sintomatología clínica de cada uno de ellos para determinar si existe relación entre la variabilidad genética del parásito infectante y la variedad clínica presentada. Los perfiles de bandas obtenidos luego de la RFLP de las muestras de sangre se analizarán cualitativamente por observación de los geles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este proyecto, enmarcado en el área de metodología de análisis en bioingeniería-biotecnología aplicadas al estudio del cáncer, es el análisis y caracterización a través de perfiles de expresión de proteínas y genes de las vías metabólicas asociadas a progresión tumoral. Dicho estudio se llevará a cabo mediante la utilización de tecnologías de alto rendimiento. Las mismas permiten evaluar miles de genes/proteínas en forma simultánea, generando así una gran cantidad de datos de expresión. Se hipotetiza que para un análisis e interpretación de la información subyacente, caracterizada por su abundancia y complejidad, podría realizarse mediante técnicas estadístico-computacionales eficientes en el contexto de modelos mixtos y técnicas de aprendizaje automático. Para que el análisis sea efectivo es necesario contemplar los efectos ocasionados por los diferentes factores experimentales ajenos al fenómeno biológico bajo estudio. Estos efectos pueden enmascarar la información subyacente y así perder informacion relevante en el contexto de progresión tumoral. La identificación de estos efectos permitirá obtener, eficientemente, los perfiles de expresión molecular que podrían permitir el desarrollo de métodos de diagnóstico basados en ellos. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, herramientas y procedimientos de análisis que maximicen la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos/proteómicos que permitan extraer información biológica relevante pertinente al análisis, clasificación o predicción de cáncer, el diseño de tratamientos y terapias específicos y el mejoramiento de los métodos de detección como así tambien aportar al entendimiento de la progresión tumoral mediante análisis computacional intensivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El plomo (Pb) es un neurotóxico del desarrollo con capacidad para alterar el balance redox del organismo y la actividad de enzimas antioxidantes, incluyendo catalasa (CAT). El etanol es una droga adictiva cuyos efectos motivacionales serían mediados por el acetaldehído, proceso catalizado por la enzima CAT cerebral. En base a estas consideraciones y a experimentos previos que demuestran un mayor consumo voluntario de etanol en ratas perinatalmente expuestas al Pb, se postula que esta enzima sería un sitio de acción común entre Pb (que induciría su activación a partir de la mayor producción de especies oxigenadas reactivas) y etanol (debido a la potenciación de la actividad de CAT producto de altas concentraciones de etanol en cerebro). En el presente proyecto se propone medir, en animales que han adquirido un patrón estable de consumo de etanol, la expresión cerebral de CAT por técnicas de Western blot y su actividad por técnicas espectrofotométricas en respuesta a: a) aminotriazol: AT (inhibidor de CAT; ver antecedentes), b) ácido 3-nitropropiónico: 3-NPA (activador de CAT), c) PEN, penicilamina (agente secuestrador de acetaldehído) y d) cianamida CIAN, inhibidor del metabolismo de acetaldehído). Se espera que la actividad y la abundancia de CAT estén influenciadas por la exposición a Pb y etanol y que respondan a las manipulaciones farmacológicas. Estos resultados serán complementados por mediciones de los niveles de etanol y acetaldehído en sangre. Se evaluará además la adquisición y reinstalación de las propiedades reforzantes tanto de etanol como de acetaldehído en la prueba de condicionamiento pavloviano asociado a un contexto. De observarse adquisición y/o reinstalación, se intentará bloquearla con AT o PEN, o por el contrario, restablecerla/potenciarla con 3-NPA o con CIAN. Se esperaría que el mayor consumo voluntario de etanol condicione una mayor conducta de búsqueda de la droga en el paradigma de preferencia a un sitio y que estas conductas puedan ser moduladas farmacológicamente por los agentes arriba descriptos. Estos resultados aportarán evidencias para el estudio de los mecanismos de acción de cada tóxico en particular, y para una nueva área de la Toxicología, la toxicidad de mezclas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Inscripto en el análisis del discurso interaccional de tradición angloamericana y optando por un abordaje metodológico etnográfico, este proyecto plantea investigar las relaciones entre textos orales y entre textos orales y escritos vinculados en cadenas textuales en un acontecimiento comunicativo institucional en el que tales relaciones tienen consecuencias directas en la confiabilidad de la información e intervienen en la construcción del conocimiento oficial. La situación comunicativa elegida es el examen y el contraexamen de testigos comunes durante procesos penales orales, de formato común no abreviado, en la jurisdicción de Córdoba capital. En las interacciones verbales con litigantes y jueces en las que emerge el testimonio se ponen en juego otros textos orales (en forma de citas de lo dicho antes por el mismo testigo u otras personas, referencias a rumores u opiniones colectivas, etc.) y textos escritos (actas de secuestro, informes periciales, actas de las declaraciones testimoniales en la etapa de instrucción, etc.). El foco de atención son las prácticas asociadas a la intertextualidad puesto que condicionan el carácter de la prueba testimonial producida ante el juzgador. Postulamos que los litigantes despliegan tácticas locales y estrategias globales reconocibles y recurrentes vinculadas al tratamiento de diversas categorías de textos previos. Además, planteamos averiguar si la participación de los jueces en interacción con los testigos es de suficiente injerencia como para ser un modo importante de generación de prueba testimonial. El enfoque metodológico general es etnográfico y analíticodiscursivo. Se seleccionará una causa por delito grave, se presenciará el debate en la cámara y se registrará el audio de todas las audiencias. Los datos a analizar serán los segmentos en las interacciones en los que se incorpora la lectura o se cita las actas de las declaraciones indagatorias o testimoniales anteriores, y los segmentos en los que se requiere, en calidad de prueba testimonial, la reproducción de dichos. Se procederá a partir de los detalles de la superficie textual y la pragmática de los intercambios y aprovechando el valor heurístico del concepto de voz, buscando identificar patrones recurrentes y los mecanismos generales que los rigen. Sobre esa base, se considerarán los intercambios verbales como interacción social que emerge moldeada por condiciones situacionales e institucionales y otros factores, tales como la incidencia de la pertenencia a grupos sociales o profesionales. Con el estudio se obtendrá una visión de prácticas cotidianas asociadas a la intertextualidad que son de crucial importancia para el carácter de la prueba testimonial producida ante el juzgador. Este paso nos acercará a conocer cómo se lleva a cabo efectivamente la administración de justicia penal y permitirá valorar los patrones de conducta a la luz de las normas procesales. In line with the Anglo-American tradition of situated discourse analysis, this project aims at tracing the links between oral texts and between oral and written texts related in textual chains which are present in an institutional event in which such relations have a direct consequence on the reliability of the information given and have an impact on the construction of what counts as official knowledge. The communicative situation under study is that of the direct and cross-examination of lay witnesses during a criminal trial in the city of Córdoba. During the face-to-face interactions between trial lawyers and judges in which the testimony takes place, other oral texts and written texts get incorporated. The focus of this research is centered on practices of intertextuality as they condition the nature of the oral evidence produced. It is argued that trial lawyers use recurrent local tactics and global strategies that are related to the treatment given to different categories of previous texts. Another aim of this study is to examine if judge’s interventions have an impact on the generation of the oral evidence. The data will come from a criminal trial that will be audio-taped in its entirety. Ethnographic observations of a criminal trial will be made. The focus of analysis will be on segments of interactions in which previous texts are read aloud or incorporated as quotes. After carrying out a detailed analysis of the surface of texts and the pragmatics of the exchanges, recurrent patterns and the general mechanisms that condition their emergence will be described. In this way, verbal exchanges will be considered social interactions that unfold conditioned by situational, institutional and social factors. This study will examine the relationship between intertextuality and the institutional practice of providing oral evidence. This will help understand how justice is actually administered and how patterns of behavior are valued according to institutional norms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evaluación de la velocidad de denominación permite la identificación temprana de niños en riesgo de desarrollar dislexia. Por lo tanto es importante contar con un test de velocidad de denominación que sea adecuadamente diseñado para nuestro contexto cultural. Debido a que las pruebas de denominación creadas en otros contextos culturales no funcionan adecuadamente al aplicarse transculturalmente es que se construyó el Test de Velocidad de Denominación. Éste es un test neuropsicológico para evaluar la velocidad de denominación (implica cronometrar el tiempo necesario para la producción de los nombres correctos de figuras que se le presentan al individuo). El test consta con satisfactorios estudios de validez. Para la presente etapa se propone administrar el test a doscientos niños de 4 a 8 años para la construcción del baremo. A una submuestra de sesenta niños del grupo de baremación se les readministrará el test a los fines de evaluar la confiabilidad (estabilidad) de la prueba.