1000 resultados para Calidad de los datos
Resumo:
La utilización de simulaciones por ordenador en el campo de la neurociencia, ofrece una mejora radical en el método científico al proporcionar un medio en el que poder probar hipótesis sobre los complejos modelos biológicos. Hay que tener en cuenta que la calidad de las simulaciones es directamente proporcional a la calidad de los datos y a la exactitud en la abstracción matemática de los procesos biológicos. Las sinapsis son los contactos que permiten el intercambio de información entre neuronas. A través de ellas, las neuronas son capaces de formar circuitos que intervienen en las operaciones funcionales específicas de las distintas regiones del cerebro. Por tanto, puede considerarse a la sinapasis como la estructura elemental y la unidad funcional en la construcción de circuitos neuronales. La inmensa mayoría de las sinapsis del cerebro de los vertebrados son sinapsis químicas. En ellas el elemento presináptico es generalmente un terminal axónico, mientras que el elemento postsináptico puede ser un cuerpo neuronal, el segmento inicial del axón, un tronco dendrítico o una espina dendrítica. Las membranas de los elementos pre y postsináptico no entran en contacto, sino que están separadas por un pequeño espacio denominado hendidura sináptica. En una sinapsis química, el elemento presináptico libera una sustancia química, el neurotransmisor, que difunde por la hendidura sináptica y actúa sobre el elemento postsináptico. Desde un punto de vista operacional, una sinapsis convierte un impulso eléctrico que alcanza el elemento presináptico en una señal química, que a su vez provoca un fenómeno eléctrico en el lado postsináptico. Para que esto ocurra, el neurotransmisor liberado debe difundir por la hendidura sináptica e interactuar con receptores específicos presentes en la membrana postsináptica. Dependiendo del tipo de neurotransmisor utilizado y de los receptores implicados la sinapsis podrá ser excitatoria, si se estimula el elemento postsináptico, o inhibitoria si ocurre lo contrario.La transmisión sináptica ocurre a escala submicroscópica, lo que la hace inaccesible a la observación experimental directa. Sin embargo, tanto la difusión del neurotransmisor como su interacción con los receptores sinápticos pueden simularse dado que dependen de parámetros fisico-químicos conocidos. En este trabajo hemos elegido como objeto de estudio una sinapsis glutamatérgica (que usa glutamato como neurotransmisor excitatorio) debido a que es la sinapsis más común en la corteza cerebral. Si bien se conocen las propiedades de los diferentes tipos de receptores de glutamato, se desconoce la influencia que pueda tener en el comportamiento de la sinapsis la geometría de ésta, es decir, su forma y tamaño. Sabemos por estudios de microscopía electrónica que tanto la forma como el tamaño de las sinapsis son muy variables, y es precisamente esta variabilidad la que pretendemos simular, junto con otros parámetros como el número de receptores de neurotransmisor.
Resumo:
Una de las características de la cartografía y SIG Participativos (SIGP) es incluir en sus métodos a la sociedad civil para aportar contenidos cualitativos a la información de sus territorios. Sin embargo no sólo se trata de datos, sino de los efectos que pueden tener estas prácticas sobre el territorio y su sociedad. El acceso a esa información se ve reducida en contraste con el incremento de información difundida a través de servicios de visualización, geoinformación y cartografía on-line. Todo esto hace que sea necesario el análisis del alcance real de las metodologías participativas en el uso de Información Geográfica (IG) y la comparación desde distintos contextos geográficos. También es importante conocer los beneficios e inconvenientes del acceso a la información para el planeamiento; desde la visibilidad de muchos pueblos desapercibidos en zonas rurales y periféricas, hasta la influencia en programas de gobierno sobre la gestión del territorio pasando por el conocimiento local espacial. El análisis se centró en los niveles de participación de la sociedad civil y sus grados de accesibilidad a la información (acceso y uso), dentro del estudio de los SIGP, Participatory Mapping, además se estudió de los TIG (Tecnologías de Información Geográfica), cartografías on-line (geoweb) y plataformas de geovisualización espacial, como recursos de Neocartografía. En este sentido, se realizó un trabajo de campo de cartografía participativa en Bolivia, se evaluaron distintos proyectos SIGP en países del norte y sur (comparativa de contextos en países en desarrollo) y se analizaron los resultados del cruce de las distintas variables.(validación, accesibilidad, verificación de datos, valor en la planificación e identidad) La tesis considera que ambos factores (niveles de participación y grado de accesibilidad) afectan a la (i) validación, verificación y calidad de los datos, la (ii) valor analítico en la planificación, y al (iii) modelo de identidad de un lugar, y que al ser tratados de forma integral, constituyen el valor añadido que los SIGP pueden aportar para lograr una planificación efectiva. Asimismo se comprueba, que la dimensión participativa en los SIGP varía según el contexto, la centralización de sus actores e intereses sectoriales. La información resultante de las prácticas SIGP tiende a estar restringida por la falta de legislaciones y por la ausencia de formatos estándar, que limitan la difusión e intercambio de la información. Todo esto repercute en la efectividad de una planificación estratégica y en la viabilidad de la implementación de cualquier proyecto sobre el territorio, y en consecuencia sobre los niveles de desarrollo de un país. Se confirma la hipótesis de que todos los elementos citados en los SIGP y mapeo participativo actuarán como herramientas válidas para el fortalecimiento y la eficacia en la planificación sólo si están interconectadas y vinculadas entre sí. Se plantea una propuesta metodológica ante las formas convencionales de planificación (nueva ruta del planeamiento; que incluye el intercambio de recursos y determinación participativa local antes de establecer la implementación), con ello, se logra incorporar los beneficios de las metodologías participativas en el manejo de la IG y los SIG (Sistemas de Información Geográfica) como instrumentos estratégicos para el desarrollo de la identidad local y la optimización en los procesos de planeamiento y estudios del territorio. Por último, se fomenta que en futuras líneas de trabajo los mapas de los SIGP y la cartografía participativa puedan llegar a ser instrumentos visuales representativos que transfieran valores identitarios del territorio y de su sociedad, y de esta manera, ayudar a alcanzar un mayor conocimiento, reconocimiento y valoración de los territorios para sus habitantes y sus planificadores. ABSTRACT A feature of participatory mapping and PGIS is to include the participation of the civil society, to provide qualitative information of their territories. However, focus is not only data, but also the effects that such practices themselves may have on the territory and their society. Access to this information is reduced in contrast to the increase of information disseminated through visualization services, geoinformation, and online cartography. Thus, the analysis of the real scope of participatory methodologies in the use of Geographic Information (GI) is necessary, including the comparison of different geographical contexts. It is also important to know the benefits and disadvantages of access to information needed for planning in different contexts, ranging from unnoticed rural areas and suburbs to influence on government programs on land management through local spatial knowledge. The analysis focused on the participation levels of civil society and the degrees of accessibility of the information (access and use) within the study of Participatory GIS (PGIS). In addition, this work studies GIT (Geographic Information Technologies), online cartographies (Geoweb) and platforms of spatial geovisualization, as resources of Neocartography. A participatory cartographic fieldwork was carried out in Bolivia. Several PGIS projects were evaluated in Northern and Southern countries (comparatively with the context of developing countries), and the results were analyzed for each these different variables. (validation, accessibility, verification,value, identity). The thesis considers that both factors (participation levels and degree of accessibility) affect the (i) validation, verification and quality of the data, (ii) analytical value for planning, and (iii) the identity of a place. The integrated management of all the above cited criteria constitutes an added value that PGISs can contribute to reach an effective planning. Also, it confirms the participatory dimension of PGISs varies according to the context, the centralization of its actors, and to sectorial interests. The resulting information from PGIS practices tends to be restricted by the lack of legislation and by the absence of standard formats, which limits in turn the diffusion and exchange of the information. All of this has repercussions in the effectiveness of a strategic planning and in the viability of the implementation of projects about the territory, and consequentially in the land development levels. The hypothesis is confirmed since all the described elements in PGISs and participatory mapping will act as valid tools in strengthening and improving the effectivity in planning only if they are interconnected and linked amongst themselves. This work, therefore, suggests a methodological proposal when faced with the conventional ways of planning: a new planning route which includes the resources exchange and local participatory determination before any plan is established -. With this, the benefits of participatory methodologies in the management of GI and GIS (Geographic Information Systems) is incorporated as a strategic instrument for development of local identity and optimization in planning processes and territory studies. Finally, the study outlines future work on PGIS maps and Participatory Mapping, such that these could eventually evolve into visual representative instruments that transfer identity values of the territory and its society. In this way, they would contribute to attain a better knowledge, recognition, and appraisement of the territories for their inhabitants and planners.
Resumo:
La técnica de bloqueo se considera como una acción discriminatoria de la victoria en el juego. Por ello, el objetivo principal de este estudio fue analizar las acciones defensivas de primera línea en voley playa femenino. Las principales variables criterio analizadas fueron el sistema de juego defensivo, el nivel juego exhibido por las parejas participantes y su clasificación. La muestra objeto de estudio estuvo compuesta por 38 jugadoras, divididas en función de su nivel de juego, en 13 parejas con nivel de juego nacional, y 6 con nivel internacional (disputan torneos internacionales representando a España). Fueron analizados 15 partidos, registrándose 1.444 secuencias defensivas completas en primera línea defensiva. Se realizó un estudio de confiabilidad, para determinar el grado de concordancia inter e intraobservadores, llegando a alcanzar una concordancia entre los observadores >.80, lo que avala la calidad de los datos. Los resultados del análisis correlacional mostraron, una diferencia en el sistema defensivo utilizado tras el cruce de variables criterio estudiadas, mostrando el test de Chi-cuadrado de Pearson una significación en el cruce (χ² de Pearson <.05). Las parejas mostraron una tendencia clara en las zonas de bloqueo, que junto con los resultados anteriores, permite establecer un patrón de comportamiento en bloqueo relacionado con la zona de golpeo del balón en ataque, lo que supone una ventaja clara en los partidos, a través del movimiento anticipado del jugador bloqueador. Las parejas con un nivel de juego nacional, y clasificadas como no finalistas, cometieron un mayor número de errores en bloqueo.
Resumo:
Los Sistemas de Información Geográfica (SIGs) se han convertido en uno de los segmentos de mayor crecimiento en la industria de la computación. La abundancia de la software y de usuarios hace necesario que se establezcan estándares para asegurar la calidad de los datos y el intercambio de información entre usuarios. La tendencia en el uso de los SIGs es que se conviertan en una herramienta para usuarios generalistas (ej. Banqueros, biólogos, forestales, ingenieros, etc.); los cuales no están interesados en intrincados procedimientos para intercambiar datos. Aun cuando el tema de los estándares es muy amplio, en el presente artículo se discuten aquellos aspectos relacionados con la exactitud de los atributos y de la geometría de los elementos manejados en el SIG.
Resumo:
[EN]Este estudio muestra una simulación 3D de la calidad del aire en la isla de Gran Canaria. Se simula el transporte difusión y reacción de los gases emitidos en dos centrales térmicas de la isla. Se presenta una estrategia de modelización y simulación mediante elementos finitos. Los resultados se comparan con datos experimentales. Se usa el método del Meccano para mallar la isla de Gran Canaria, a partir de una triangulación de la topografia de la isla. A continuación, con los datos de las estaciones de viento, se calcula un campo de viento para la zona de estudio…
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
El Ministerio de Salud en Chile se ha planteado como uno de sus principales objetivos, proveer servicios acorde a las expectativas de la población. Para lograrlo, se requiere necesariamente, conocer cuál es la calidad del servicio ofrecida por los centros de salud. En Chile, los centros de atención secundaria, no han desarrollado escalas de calidad del servicio que tengan un buen grado de validez, fiabilidad y dimensionalidad. Este artículo, propone una escala que cumpla estas condiciones, para medir de manera óptima la calidad del servicio que los Centros de Atención Secundaria ofrecen a sus pacientes. Para lograr este objetivo, se aplicó una encuesta estructurada y posteriormente se realizó un exhaustivo análisis psicométrico de los datos, a través de una serie de análisis exploratorios y confirmatorios que incluyó ecuaciones estructurales. Este estudio permitió construir y proponer una escala fiable, válida y con buen grado de dimensionalidad, compuesta por cinco subescalas claramente relacionadas e integradas en un único constructo. Estas son: confiabilidad, empatía, capacidad de respuesta, accesibilidad y tangibles.
Resumo:
En este trabajo se propone la construcción de un índice de calidad ocupacional (ICO) a partir de los datos de la Encuesta de Inserción Laboral de los Graduados de las Universidades Catalanas realizada por la Agencia para la Calidad del Sistema Universitario de Catalunya (AQU), que ha de permitir un mejor análisis de la información que proporciona la encuesta y facilitar su comparación con estudios similares. La encuesta se realiza tres años después de la graduación. En este artículo, se utiliza la segunda encuesta realizada el año 2005 entre 11.456 graduados (52,63%) de la promoción 2001 (AQU, 2005, Serra-Ramoneda, 2007). El índice se ha elaborado a partir de los indicadores objetivos ‘tipo y duración del contrato laboral’, ‘retribución económica’, ‘adecuación entre la formación universitaria y el empleo’ a los que se otorga una puntuación ponderada según las respuestas dadas por los graduados. La suma de las puntuaciones se matiza con un coeficiente derivado del indicador subjetivo ‘satisfacción con el trabajo en general’. A partir de la información proporcionada por el índice, se realiza un análisis comparativo del nivel de calidad ocupacional que han logrado los graduados de áreas de conocimiento, ámbitos de trabajo, ramas de actividad y ubicaciones territoriales del empleo diferentes. Los resultados obtenidos permiten observar que entre los graduados catalanes los siguientes hechos son buenos predictores de la calidad de la ocupación: haber estudiado una carrera que no sea de Humanidades, ser un hombre, haber desempeñado durante la carrera un trabajo relacionado con los estudios, estar ocupado en la construcción, en instituciones financieras o en servicios a empresas, haber tenido algún tipo de movilidad por motivos de trabajo, trabajar fuera de Cataluña y hacerlo en empresas grandes, especialmente con más de 500 trabajadores. Finalmente, se presentan algunas reflexiones y propuestas que pueden resultar de interés para la orientación de los estudiantes y la planificación universitaria
Resumo:
Los autores resumen en un decálogo la experiencia de más de 30 años de estudio de los ríos españoles con dos focos principales: el uso de macroinvertebrados para la obtención de la calidad biológica y el diseño de sistemas de evaluación del estado ecológico de los ríos. Después de una introducción general y de un resumen de cómo se gestaron los estudios de biomonitoreo en España, los autores analizan los trabajos que se han publicado en la revista Limnetica sobre este tema. Se usan estos datos para ilustrar los puntos relevantes en el diseño y aplicación del biomonitoreo, que es posteriormente resumido en un decálogo. Este está pensado para contener todos los puntos necesarios para que el diseño de un sistema de biomonitoreo cumpla las especificaciones de la Directiva Marco del Agua (DMA). Los diez puntos analizados son: 1) establecimiento de la zona de estudio; 2) recursos humanos y materiales disponibles; 3) tipología de ríos; 4) establecimiento de las condiciones de referencia; 5) protocolos de muestreo; 6) métricas a utilizar; 7) establecimiento de los cortes de calidad y relación de las métricas con las presiones; 8) mapas de estado ecológico usando el valor relativo respecto a los valores de referencia (el EQR: Ecological Quality Ratio); 9) control de calidad; 10) uso de los datos para establecer los objetivos de calidad y el programa de medidas. En la revista Limnetica se han publicado desde su inicio en el año 1981 un total de 641 trabajos, de los cuales un 42% trataban de ríos y un 18% se centraban exclusivamente en el biomonitoreo. La mayor parte de los trabajos de biomonitoreo publicados utilizaron a los macroinvertebrados como elemento de calidad (88%), pero relativamente pocos (menos del 20%) usaron la tipología y las condiciones de referencia para establecer correctamente las clases de calidad. Se analiza por separado el período anterior al año 2002, y con un número similar de trabajos se advierte un mayor porcentaje de trabajos de biomonitoreo después de 2002. Sin embargo, y a pesar de la existencia de la DMA desde el año 2000, muchos trabajos publicados en Limnetica a partir de 2002 (cuando se hizo un número especial sobre biomonitoreo en ríos mediterráneos) no cumplen los requisitos que demanda esta Directiva. En este momento, después de la experiencia que se tiene por la implementación de la DMA, cualquier sistema de biomonitoreo desarrollado en Europa debe ser comparable a los que existen actualmente, especialmente a la métrica común de intercalibración (ICM).Este decálogo presenta los pasos necesarios para que cuando se diseñe un sistema de muestreo este cumpla los requisitos que demanda la DMA.
Resumo:
Valorar los programas de empleo apoyado desde el punto de vista organizacional, desde el punto de vista de los criterios objetivos y desde el punto de vista de los resultados. Programas de empleo apoyado que están siendo ya aplicados y validados en todo el territorio norteamericano. Se analiza: el concepto de empleo apoyado, los diversos modelos de funcionamiento de empleo apoyado, el ámbito del problema de la calidad de estos programas y la medición de la calidad de vida de los individuos que pasan por uno de ellos. Siguiendo a Bellamy hay cinco aspectos que sirven de marco de referencia para el estudio del éxito de una organización en promover empleo apoyado: 1) crear la oportunidad de desempeñar un trabajo remunerado; 2) ver que el trabajo es desempeñado de acuerdo con los criterios del que proporciona el trabajo; 3) integrar trabajadores con discapacidad en el medio social y físico del lugar de trabajo; 4) responder a la necesidad de apoyo continuado del trabajador; 5) mantener la capacidad de la organización para ofrecer empleo apoyado. Para valorar la calidad de los programas desde el punto de vista de los criterios objetivos, se propone el modelo de Schalock que consta de los siguientes apartados: 1. Criterios de empleo apoyado; 2. Indicadores de desempeño del trabajo; 3. Objetivos; 4. Proceso de datos. Para valorar la calidad de los programas desde el punto de vista de los resultados, hay que analizar cinco variables extraidas de la literatura existente: salario por hora, horas de trabajo a la semana, nivel de integración, beneficios y duración del empleo. El éxito de los programas y, en definitiva, la calidad de los mismos, estará directamente relacionada con el éxito de cada individuo en el desempeño de su trabajo. Para ello, se han utilizado parámetros semejantes a los que se aplican a los trabajadores sin discapacidad en las mismas situaciones.
Resumo:
Elaborar un modelo global que refleje la actividad de la escuela como institución social y como unidad organizativa para someterlo a validación empírica. Analizar los niveles de satisfacción personal alcanzados por los componentes que intervienen en la misma (profesores, padres y alumnos). Investigar nuevos enfoques de análisis de modelos globales, fundándolos en las conductas de carácter atingente e inductivo que han de surgir de la intensa actividad investigadora. Comprender con mayor claridad todos los procesos interactivos que actúan dentro y fuera de la escuela y que tienen alguna asociación, dependencia o influencia con los criterios de calidad. Se toma como unidad de análisis la institución escolar. La escuela seleccionada fue el Colegio Público 'Campo Charro' de Salamanca compuesto por 16 unidades de EGB y 4 de Preescolar. Fue escogido por las numerosas experiencias innovadoras organizativas y didácticas que se llevan a cabo en él. Para analizar la proyección del modelo se seleccionó una muestra aleatoria de 200 profesores de los centros escolares de Salamanca y su provincia. Se construye un modelo atingente (que establece las conexiones precisas para que exista el máximo nivel relacional entre la escuela y la calidad generada) en inductivo (partiendo de situaciones experienciales) para analizar la institución. Las variables tomadas en consideración son: naturaleza de la comunidad escolar, autocontrol participativo, tecnogestión o gestión técnica, cualificación docente, planificación didáctica, rendimiento académico y nivel de satisfacción de los profesores, alumnos y los padres. Metodológicamente se desarrolla el modelo propuesto por Shulman (1989) marchando desde el 'bucle' descriptivo inicial al correlacional para concluir con las inferencias estructurales. Escala de valores sumativos tipo Likert para los profesores y Escala valorativa preferencial para padres de alumnos, ambas construidas 'ad hoc'. Análisis retrospectivo de los Libros de Actas y Libros de Juntas del Centro. Análisis descriptivo del contenido de los Libros de Actas y Juntas. Análisis correlacional de los datos de padres, alumnos y profesores. Análisis de regresión estableciendo nueve ecuaciones de regresión. Análisis factorial y Análisis Causal. Son fácilmente identificables por los miembros de la comunidad escolar los factores y componentes que actúan en la escuela y que determinan su nivel de funcionalidad y de eficacia. Estos componentes identificados se agrupan en torno a tres factores: los componentes de entrada y los procesuales (naturaleza de la comunidad, participación y control, gestión técnica, profesorado y planificación didáctica), los que expresan los resultados (rendimientos académicos) y las percepciones de los actores (satisfacción). Se comprueba el mayor valor ponderado que se le otorga a las variables procesuales en relación con la eficacia. Se asume que la construcción contextual de modelos teóricos, si bien son de gran ayuda, no resuelven por sí mismos el normal desarrollo y funcionamiento de las escuelas. Así mismo, los estudios cuantitativos tampoco resuelven ni explican las complejas relaciones que se dan en la 'vida' de los centros. Se necesita conocer expresa y detalladamente los pensamientos, mecanismos y situaciones que originan en cada instante esas relaciones; de ahí que sean necesarios estudios cualitativos contextualizados que nos ayuden a determinar el significado correlacional y causal de esas relaciones.
Resumo:
Resumen tomado de la revista