1000 resultados para métodos cuantitativos
Resumo:
L'ecologia del paisatge neix en una vinculació ben estreta amb la geografia i viu un espectacular desenvolupament a partir de la segona meitat del segle XX. En l’actualitat, és una perspectiva científica transdisciplinària, consolidada i reconeguda, que intenta comprendre i ajudar a resoldre els principals reptes ambientals contemporanis pel que fa a la conservació del patrimoni natural i cultural. En aquestes pàgines, es repassa de forma sintètica els conceptes clau i els mètodes, eminentment quantitatius, emprats per l’ecologia del paisatge per analitzar la situació i l’evolució dels paisatges
Resumo:
A pesar del amplio uso de la resonancia magnética en la esclerosis múltiple no se ha logrado una adecuada correlación clínico-imagenológica en esta enfermedad. Objetivo: Determinar la correlación del volumen normalizado de sustancia gris y del volumen de lesiones hipointensas en T1 obtenidos a partir de la resonancia magnética cerebral con la escala de discapacidad extendida en pacientes con diagnóstico de esclerosis múltiple. Materiales y métodos: Estudio retrospectivo en pacientes con diagnóstico de esclerosis múltiple de la Fundación Cardioinfantil. Se obtuvieron los resultados de la escala de discapacidad expandida así como análisis cuantitativo de las imágenes correspondientes de resonancia magnética por medio de la herramienta SIENA. Se cuantificaron el volumen del parénquima cerebral, sustancia gris, sustancia blanca y volumen de lesiones hipointensas en T1. Posteriormente, se relacionaron estos resultados con la escala de discapacidad extendida de Kurtzke previamente obtenida. Para el análisis estadístico se emplearon el test correlación de Spearman y t de Student y Hotelling. Resultados: Se incluyeron 58 pacientes, encontrándose correlaciones estadísticamente significativas entre la escala de discapacidad extendida y volumen de parénquima cerebral, volumen de sustancia gris y volumen de lesiones hipointensas en T1; de 0.384, 0.386 y 0.39. No se encontró una relación entre el volumen de sustancia blanca y la escala de discapacidad. Conclusiones: Existe una correlación clínico-imagenológica moderada en la esclerosis múltiple. La cuantificación de los parámetros propuestos en este estudio podría ser utilizada como herramienta en el seguimiento de la enfermedad y monitorización de nuevos tratamientos.
Resumo:
Investigar a cerca la docencia de la informática en la Universidad Autónoma de Barcelona. Evaluar la validez del medio audiovisual como soporte eficaz para la enseñanza de la informática. Evaluar las metodologías usadas para la enseñanza de la informática. La muestra la componían 36 voluntarios, alumnos de tercer curso de ciencias de la Educación de la Universidad Autónoma de Barcelona que cursaban la asignatura 'estadística aplicada a la educación'. Los sujetos no tenían ninguna experiencia previa en el uso de ordenadores. La muestra se dividió en tres subgrupos mediante división por azar equilibrada.. La investigación se estructura en dos bloques. En el primero de ellos, se define el marco teórico en cuanto a los procesos de enseñanza-aprendizaje, los métodos de enseñanza y se realiza una aproximación a la informática, a sus aplicaciones y a la docencia de ésta. En el segundo bloque, experimental, se diseña un video explicativo sobre el uso del ordenador VAX/VMS y se divide la muestra en tres subgrupos, y se aplica a cada uno de los subgrupos una metodología distinta; al grupo A se aplicó metodología magistral con soporte de diapositivas, el grupo B visionó el video conjuntamente módulo a módulo, con explicaciones del profesor intercaladas, y el grupo C visionó el video de forma individual. Finalmente se aplicarón los cuestionarios diseñados al efecto y se analizan los datos. Reportaje video sobre el uso del ordenador VAX/VMS (5 cintas). Cuestionarios Ad-hoc. Programa estadístico informático SPSSx. Análisis estadísticos cuantitativos y cualitativos. Un solo instrumento (la cinta de video) usado de forma personal e individualizado por los alumnos ha dado un resultado igual o superior a otras metodologías grupales. . El video es un buen soporte para la transferencia de conocimientos y aprendizajes. Los resultados parecen apuntar la conveniencia de replantear algunas metodologías usadas en la docencia universitaria. El visionado individual del soporte video obtiene mejores resultados que el visionado colectivo y que otras metodologías. En el contexto de la enseñanza universitaria a grupos medios y grandes puede ser que el uso de medio dinámico (video) resulte más efectivo para la enseñanza de un proceso dinámico (uso del ordenador) que un medio estático..
Resumo:
Establecer las condiciones de recepción-producción del discurso infantil en los niveles léxico, subléxico y morfosintáctico. Analizar los textos utilizados para el aprendizaje lector respecto a los tres niveles citados. Comparar cuantitativa y cualitativamente las condiciones de producción de los textos para el aprendizaje lector y las condiciones de recepción-producción del discurso infantil y establecer el grado de adecuación entre textos y características lingüísticas del lenguaje infantil. Establecer pautas metodológicas que faciliten la confección y redacción eficaz de textos para el aprendizaje lector en sus niveles iniciales. Se trabaja con dos muestras de vocabulario. Por un lado, los denominados 'vocabularios usuales', que son listados de vocablos que recogen el conjunto de palabras que utilizan las personas. Se manejan dos de estos listados, confeccionados por Justicia (1985) y Lecuona (1991). Por otro lado, se trabaja con los textos utilizados por los 359 profesores de Educación Infantil de la provincia de Salamanca. La muestra se compone de 32 títulos de diferentes editoriales que corresponden a un total de 63 libros. El proceso metodológico se configura en tres planos -léxico, subléxico y morfosemántico- que son estudiados en dos realidades -los vocabularios usuales infantiles y los textos para la iniciación a la lectura-. El proceso seguido consiste en analizar ambas realidades por separado y luego compararlas, reproduciendo la operación para cada uno de los tres planos. En el nivel léxico se analiza lo que el niño ya sabe y usa; se pretende predecir el léxico en función de su usualidad en edades superiores y se hace un estudio longitudinal del vocabulario desde los 4 a los 10 años. En el nivel subléxico se analizan variables referidas a las sílabas (número de sílabas diferentes, número de ocurrencias silábicas totales y frecuencia media silábico). En el nivel morfosemántico se busca un indicador de la estructuración del lenguaje infantil. Los instrumentos son los propios textos utilizados: los vocabularios infantiles de Justicia (1985) y Lecuona (1991) y los 63 libros de texto para la iniciación a la lectura. La forma de tabulación de los datos es igual para todas las variables: es lo que en estadística lexical se denomina 'type'-'token'. Se llevan a cabo estudios cuantitativos, tanto descriptivos (distribución de frecuencias, media, moda, mediana, desviación típica) como correlacionales ('T' de Kendall), análisis de varianza de un factor y análisis de regresión simple. También se realiza una comparación cualitativa entre los dos tipos de textos. La distribución de los vocablos presentes en el vocabulario usual del niño se adapta a las características generales de las distribuciones lexicales, especialmente en cuanto a la heterogeneidad de las frecuencias de vocablos. El niño incorpora a su vocabulario usual nuevos vocablos de forma progresiva, aunque se observan diferencias entre los vocablos autosemánticos y sinsemánticos. Se aprecia una gran heterogeneidad en la concepción de los textos existentes para el aprendizaje de la lectura en cuanto al nivel léxico. En el período de Educación Infantil, la adjetivación es escasa y son los sustantivos referidos a su entorno más próximo y los verbos que expresan su acción los principales responsables del aumento de su vocabulario. Existe una relación entre la 'economía del lenguaje' y la formación y el uso de los modelos combinatorios de sílabas en palabras; esta relación es inversa entre la presencia de esos modelos combinatorios en el lenguaje usual y su dificultad. Los resultados permiten establecer una serie de pautas para la elaboración de textos destinados al aprendizaje de la lectura. Estas pautas se refieren tanto a la metodología general de enseñanza de la lectura como a los requisitos de las palabras y frases contenidas en los textos. Los siguientes estadios del aprendizaje de la lectura en Educación Infantil se deben caracterizar por un progreso hacia sílabas, estructuras y frases más complejas, con palabras que pueden ser menos usuales.
Resumo:
Resumen tomado de la publicación
Resumo:
Establecer la relación de todos los términos matemáticos conocidos por los niños hasta la edad de 6 años. Establecer el grado de dificultad de esos términos. Establecer la relación que existe entre el conocimiento que el profesor tiene de sus alumnos y el nivel de conocimientos en esta clase de lenguaje poseidos por éstos. Los sujetos de este estudio han sido 35 niños de párvulos de cuatro a seis años de ambiente familiar medio-bajo. La investigación intenta establecer un modelo de desarrollo del lenguaje matemático poseido por el niño antes de iniciar la enseñanza formal de las Matemáticas. Las variables independientes han sido la edad, sexo, clase social, las variables dependientes: grado de conocimiento poseido por el niño en este tipo de lenguaje. Finalmente se ha establecido una secuencia de términos en función de la dificultad que representan para los sujetos en función de la edad. El instrumento utilizado para la obtención de datos ha sido una colección de fichas que permiten conocer si el sujeto dominaba los términos matemáticos identificados. La aplicación de las fichas se hacía a nivel individual por la propia maestra de los alumnos. La comprobación se hacía siempre dos veces para asegurarnos del dominio de cada término por parte del sujeto. Análisis de frecuencias. Indice de dificultad de cada término. Coeficiente de relación entre el conocimiento mostrado por el niño y el conocimiento del profesor sobre sus alumnos en este campo. El número de conceptos adquiridos para la edad de seis años es muy numeroso y están bien dominados. La adquisición de los términos cuantitativos se hace de forma bipolar. La experiencia niño-entorno, hasta la edad de 6 años es básica para el asentamiento de una serie de términos que van a ser fundamentales para el estudio formal de las Matemáticas. Se pone de manifiesto el gran desconocimiento que los profesionales de la enseñanza tenemos sobre conocimientos con los que el niño llega a la escuela. La necesidad de elaborar ya -estamos en ello- un test que permita al profesorado del Ciclo Inicial hacer un diagnóstico de sus alumnos antes de iniciar la enseñanza formal de las Matemáticas. Adaptar los programas de Matemáticas del Ciclo Inicial en función de las capacidades demostradas por los niños según su capacidad lingüístico-matemática -actualmente en el área de métodos estamos trabajando en este sentido-.
Resumo:
[ES]En el presente estudio se analizan las relaciones que existen entre los métodos de enseñanza-aprendizaje que se utilizan y el nivel de desarrollo adquirido por los estudiantes en la competencia para la utilización de herramientas informáticas a través del módulo de Estadística de la asignatura de Métodos Cuantitativos en el Grado de Administración y Dirección de Empresas de la Universidad de Las Palmas de Gran Canaria. Basándose en los resultados de una encuesta realizada en el curso 2012-13 a los alumnos de la asignatura, se concluye que los métodos de enseñanza-aprendizaje basado en las“clases prácticas de ordenador” y en la “resolución de ejercicios usando ordenadores” son los más efectivos en la adquisición de competencias informáticas.
Resumo:
En el presente trabajo se realiza una evaluación de una sección de la colección de una biblioteca universitaria argentina con el fin de conocer la viabilidad de aplicación y la utilidad de los métodos de Slote y McClellan orientados al expurgo. Se acota el estudio a la clase 33X y sus subclases de CDU. Los métodos seleccionados son cuantitativos y se basan en el historial de préstamo de los ejemplares de dicha área temática. El método de Slote propone el cálculo de la variable shelf-time period, teniendo en cuenta la fecha de alta en el sistema, la fecha de último préstamo y la fecha de préstamo anterior. Mientras que el método de McClellan propone calcular la escala de expurgo dividiendo la cantidad de préstamos que experimentan los ejemplares del área temática elegida a lo largo de un año, por el objetivo de fondos, que se calcula teniendo en cuenta la cantidad de libros en estante, la cantidad de libros prestados y fondo disponible ideal; y de esa manera conocer qué punto de la colección requiere acciones correctivas en lo inmediato. Los resultados dan cuenta tanto de la utilidad, como de las ventajas y desventajas de las variables de análisis propuestas por cada autor. En este sentido, queda comprobado que el método de McClellan resulta complejo en su aplicación, por la cantidad de datos que requiere, mientras que el de Slote es sencillo y permite, incluso, recolectar los datos de manera manual. La principal problemática encontrada al finalizar el análisis es que el Sistema Integrado de Gestión Bibliotecaria (SIGB) llevaba poco tiempo en funcionamiento y complicó la interpretación de los resultados, que se vieron totalmente sesgados por la gran cantidad de ejemplares que no habían circulado nunca. Dicho estudio se complementa con un análisis de las Políticas de Desarrollo de Colecciones (PDC) de bibliotecas académicas argentinas, latinoamericanas y españolas en las que se intenta observar qué lugar se le da a la evaluación de la colección y al expurgo
Resumo:
En el presente trabajo se realiza una evaluación de una sección de la colección de una biblioteca universitaria argentina con el fin de conocer la viabilidad de aplicación y la utilidad de los métodos de Slote y McClellan orientados al expurgo. Se acota el estudio a la clase 33X y sus subclases de CDU. Los métodos seleccionados son cuantitativos y se basan en el historial de préstamo de los ejemplares de dicha área temática. El método de Slote propone el cálculo de la variable shelf-time period, teniendo en cuenta la fecha de alta en el sistema, la fecha de último préstamo y la fecha de préstamo anterior. Mientras que el método de McClellan propone calcular la escala de expurgo dividiendo la cantidad de préstamos que experimentan los ejemplares del área temática elegida a lo largo de un año, por el objetivo de fondos, que se calcula teniendo en cuenta la cantidad de libros en estante, la cantidad de libros prestados y fondo disponible ideal; y de esa manera conocer qué punto de la colección requiere acciones correctivas en lo inmediato. Los resultados dan cuenta tanto de la utilidad, como de las ventajas y desventajas de las variables de análisis propuestas por cada autor. En este sentido, queda comprobado que el método de McClellan resulta complejo en su aplicación, por la cantidad de datos que requiere, mientras que el de Slote es sencillo y permite, incluso, recolectar los datos de manera manual. La principal problemática encontrada al finalizar el análisis es que el Sistema Integrado de Gestión Bibliotecaria (SIGB) llevaba poco tiempo en funcionamiento y complicó la interpretación de los resultados, que se vieron totalmente sesgados por la gran cantidad de ejemplares que no habían circulado nunca. Dicho estudio se complementa con un análisis de las Políticas de Desarrollo de Colecciones (PDC) de bibliotecas académicas argentinas, latinoamericanas y españolas en las que se intenta observar qué lugar se le da a la evaluación de la colección y al expurgo
Resumo:
En el presente trabajo se realiza una evaluación de una sección de la colección de una biblioteca universitaria argentina con el fin de conocer la viabilidad de aplicación y la utilidad de los métodos de Slote y McClellan orientados al expurgo. Se acota el estudio a la clase 33X y sus subclases de CDU. Los métodos seleccionados son cuantitativos y se basan en el historial de préstamo de los ejemplares de dicha área temática. El método de Slote propone el cálculo de la variable shelf-time period, teniendo en cuenta la fecha de alta en el sistema, la fecha de último préstamo y la fecha de préstamo anterior. Mientras que el método de McClellan propone calcular la escala de expurgo dividiendo la cantidad de préstamos que experimentan los ejemplares del área temática elegida a lo largo de un año, por el objetivo de fondos, que se calcula teniendo en cuenta la cantidad de libros en estante, la cantidad de libros prestados y fondo disponible ideal; y de esa manera conocer qué punto de la colección requiere acciones correctivas en lo inmediato. Los resultados dan cuenta tanto de la utilidad, como de las ventajas y desventajas de las variables de análisis propuestas por cada autor. En este sentido, queda comprobado que el método de McClellan resulta complejo en su aplicación, por la cantidad de datos que requiere, mientras que el de Slote es sencillo y permite, incluso, recolectar los datos de manera manual. La principal problemática encontrada al finalizar el análisis es que el Sistema Integrado de Gestión Bibliotecaria (SIGB) llevaba poco tiempo en funcionamiento y complicó la interpretación de los resultados, que se vieron totalmente sesgados por la gran cantidad de ejemplares que no habían circulado nunca. Dicho estudio se complementa con un análisis de las Políticas de Desarrollo de Colecciones (PDC) de bibliotecas académicas argentinas, latinoamericanas y españolas en las que se intenta observar qué lugar se le da a la evaluación de la colección y al expurgo
Resumo:
We review here the chemistry of reactive oxygen and nitrogen species, their biological sources and targets; particularly, biomolecules implicated in the redox balance of the human blood, and appraise the analytical methods available for their detection and quantification. Those biomolecules are represented by the enzymatic antioxidant defense machinery, whereas coadjutant reducing protection is provided by several low molecular weight molecules. Biomolecules can be injured by RONS yielding a large repertoire of oxidized products, some of which can be taken as biomarkers of oxidative damage. Their reliable determination is of utmost interest for their potentiality in diagnosis, prevention and treatment of maladies.
Resumo:
In this work, the artificial neural networks (ANN) and partial least squares (PLS) regression were applied to UV spectral data for quantitative determination of thiamin hydrochloride (VB1), riboflavin phosphate (VB2), pyridoxine hydrochloride (VB6) and nicotinamide (VPP) in pharmaceutical samples. For calibration purposes, commercial samples in 0.2 mol L-1 acetate buffer (pH 4.0) were employed as standards. The concentration ranges used in the calibration step were: 0.1 - 7.5 mg L-1 for VB1, 0.1 - 3.0 mg L-1 for VB2, 0.1 - 3.0 mg L-1 for VB6 and 0.4 - 30.0 mg L-1 for VPP. From the results it is possible to verify that both methods can be successfully applied for these determinations. The similar error values were obtained by using neural network or PLS methods. The proposed methodology is simple, rapid and can be easily used in quality control laboratories.
Resumo:
In this review recent methods developed and applied to solve criminal occurences related to documentoscopy, ballistic and drugs of abuse are discussed. In documentoscopy, aging of ink writings, the sequence of line crossings and counterfeiting of documents are aspects to be solved with reproducible, fast and non-destructive methods. In ballistic, the industries are currently producing ''lead-free'' or ''nontoxic'' handgun ammunitions, so new methods of gunshot residues characterization are being presented. For drugs analysis, easy ambient sonic-spray ionization mass spectrometry (EASI-MS) is shown to provide a relatively simple and selective screening tool to distinguish m-CPP and amphetamines (MDMA) tablets, cocaine and LSD.
Resumo:
This paper presents two techniques to evaluate soil mechanical resistance to penetration as an auxiliary method to help in a decision-making in subsoiling operations. The decision is based on the volume of soil mobilized as a function of the considered critical soil resistance to penetration in each case. The first method, probabilistic, uses statistical techniques to define the volume of soil to be mobilized. The other method, deterministic, determines the percentage of soil to be mobilized and its spatial distribution. Both cases plot the percentage curves of experimental data related to the soil mechanical resistance to penetration equal or larger to the established critical level and the volume of soil to be mobilized as a function of critical level. The deterministic method plots showed the spatial distribution of the data with resistance to penetration equal or large than the critical level. The comparison between mobilized soil curves as a function of critical level using both methods showed that they can be considered equivalent. The deterministic method has the advantage of showing the spatial distribution of the critical points.
Resumo:
This study presents the results of a cost-effectiveness analysis in a controlled clinical trial on the effectiveness of a modified glass ionomer resin sealant ( Vitremer, 3M ESPE) and the application of fluoride varnish (Duraphat, Colgate) on occlusal surfaces of first permanent molars in children 6-8 years of age (N = 268), according to caries risk (high versus low). Children were examined semiannually by the same calibrated dentist for 24 months after allocation in six groups: high and low risk controls (oral health education every three months); high and low risk with varnish (oral health education every three months + varnish biannually); and high and low risk with sealant (oral health education every three months + a single application of sealant). Economic analysis showed that sealing permanent first molars of high-risk schoolchildren showed a C/E ratio of US$ 119.80 per saved occlusal surface and an incremental C/E ratio of US$ 108.36 per additional saved occlusal surface. The study concluded that sealing permanent first molars of high-risk schoolchildren was the most cost-effective intervention.