416 resultados para Log4J,Log4Shell,QRadar,IBM


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumir el estado actual de la investigación haciendo hincapié en todo lo relativo al método Delphi, incluidas algunas de las aplicaciones que ha realizado el equipo investigador en cuestiones relacionadas con la formación. Grupo de expertos del Ejército del Aire que realizaban un seminario de dirección de empresas. Personal investigador de los ICEs reunidos en un seminario sobre metodología de encuestas. 1) Descripción del método Delphi. 2) Programación del método Delphi en el ordenador IBM 5110. 3) Aplicaciones del método y programa Delphi: A) al diseño de programas de entrenamiento de pilotos de combate y, B) al análisis de la estructura del Sistema Educativo con especial interés en la Formación Profesional. Método y programa Delphi. Cuestionario I y II sobre la formación de pilotos de combate. Cuestionarios para las personas ligadas a los ICEs: uno relativo a las edades de acceso a los distintos niveles del Sistema Educativo y tres sobre Formación Profesional. Análisis estadístico por ordenador. Para cada pregunta se calcula: la respuesta más alta, la más baja, el rango del recorrido, la media, la desviación típica, el tercer y primer cuartil, y la mediana. Se constata la utilidad del método Delphi para el estudio de problemas del tipo de esta investigación, y también la de disponer del método programado en un ordenador. Se establece el método y el programa Delphi elaborado, como la metodología a seguir para consultar a expertos acerca de la funcionalidad o no del Sistema Educativo y más especialmente del sector Formación Profesional. Las siguientes fases de la investigación consistirán en: la sofisticación del programa de ordenador, la preparación de los cuestionarios y la selección del panel de expertos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Utilizar medios audiovisuales como recurso didáctico para facilitar a los alumnos un acercamiento práctico al estudio de la Biología Animal. Utilizar el ordenador, que permite una participación activa por parte de los alumnos en su proceso de aprendizaje, y sistemas de vídeo. Centrar el estudio en los procesos fisiológicos relacionados con la excitabilidad (células nerviosas y músculos) y con la ingestión de alimento. Elaboración de programas de simulación por ordenador de estos fenómenos fisiológicos. Realización de dos prácticas de laboratorio para el estudio de estos fenómenos, mediante la experimentación con animales vivos (para nivel universitario de Veterinaria y Biología). Previamente a su realización, se da información teórico-demostrativa sobre el manejo de ordenadores y programas de gestión de datos, así como de métodos informáticos de simulación de sistemas biológicos (con distintos niveles de complejidad según los alumnos). Grabación en vídeo de la realización de estas prácticas. Evaluación, mediante cuestionarios, del grado de aceptación de estas actividades por parte de los alumnos. Programas de simulación por ordenador, prácticas de laboratorio, quimógrafo, unidad de respiración asistida, jaula metabólica para roedores, balanza electrónica conectable a ordenador, ordenador personal IBM PC compatible, cámara de vídeo y accesorios. Dos programas de simulación por ordenador para utilizar en la realización de estas prácticas: simulación de potenciales de acción y registro automático de la ingestión de alimento, programados ambos en Basic. Dos programas de vídeo sobre la realización de estas prácticas, para utilizar en Enseñanza Media, donde las posibilidades para disponer de animales de experimentación son reducidas: regulación cardiovascular, factores nerviosos y humorales y pautas de ingestión. Grado de aceptación extraordinariamente elevado por parte de los alumnos de las actividades realizadas, que hace aconsejable esta metodología para otras disciplinas. Desde el curso 1991-92 se han incorporado al programa de actividades prácticas de Fisiología Animal en las Facultades de Biología y Veterinaria de la Universidad de León.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Elaborar un instrumento que sirva para identificar las causas individuales y organizacionales del estrés y del Burnout, especificando las variables antecedentes así como las consecuencias más relevantes del síndrome en el colectivo de profesores de Bachillerato. 364 profesores de institutos de enseñanza media, de un total de 4213 pertenecientes a 18 distritos de Madrid capital. Tiene una composición del 52 por ciento de mujeres y el 48 por ciento de hombres, con una media de edad de 40 años, y un rango de 24 a 64 años. Esta investigación consta de dos partes. La primera describe el marco teórico de la misma, en el que se trata el estrés laboral, la problemática de estrés en profesiones asistenciales tomando el Burnout como síndrome específico, el profesor presa del síndrome Burnout. La segunda parte desarrolla el estudio empírico de la investigación, que comprende: metodología, resultados, discusión, conclusiones, referencias bibliográficas. En esta parte se ha elaborado el cuestionario CBP (Cuestionario del Burnout del Profesorado), para la evaluación del estrés y del Burnout en el profesorado de BUP, que consiste en 11 cuestiones relativas a la salud y 3 preguntas abiertas. El análisis factorial indica la presencia de 4 factores principales: estrés, Burnout, desorganización y problemática administrativa. Las variables utilizadas son: 1. Variables causales (individuales y organizacionales); 2. Variables consecuencias (personales, familiares y profesionales); 3. Variables sociodemográficas (edad, sexo, relaciones personales, años de docencia, turno, director-no director, situación laboral, nivel socioeconómico del colegio, materia impartida, nivel de enseñanza, número de profesores del centro). Escala tipo Likert, programa 4M del BMDP, programa reliability del SPSS/IBM. Análisis inferencial, porcentajes, correlaciones, tablas, análisis de consistencia, frecuencia, análisis descriptivo, fiabilidad, validez. El cuestionario CBP reune las condiciones psicométricas para evaluar el estrés y el Burnout del profesorado. Los resultados obtenidos indican que el sexo femenino, el turno de mañana y las relaciones interpersonales pobres son los mayores predictores de la problemática general del estrés. Otros factores como el número de profesores por instituto, la asignatura impartida, la situación laboral y el nivel de docencia, BUP o COU, son igualmente factores intervinientes, aunque con menor significación. La edad y los años de docencia se manifiestan como escasamente relevantes. El estrés tiene una clara incidencia en el estado de salud de los profesores. El análisis cualitativo indica que la problemática con el alumnado es la mayor fuente de estrés, seguida por problemas con la administración, falta de apoyo y motivación (consultar los resultados parciales en la propia investigación).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudiar el desarrollo y el aprendizaje de los ni??os paral??ticos cerebrales de las primeras etapas educativas y especialmente, la utilidad que para ellos pueda tener el uso del ordenador. 14 ni??os paral??ticos cerebrales, sus familias y 14 profesores. La investigaci??n tiene un car??cter descriptivo y exploratorio, pues pretende recoger el modo en el que se trabaja en el aula. Se divide en dos cap??tulos: introductorio, que expone la historia del proyecto, presenta las concepciones te??ricas y describe la metodolog??a adoptada y el dise??o utilizado; y resultados, que se estructura de acuerdo con un eje temporal. Se inicia con el desarrollo de algunos instrumentos de medida, contin??a con una descripci??n del estado inicial de las 3 instancias (alumnos, profesores y padres), as?? como con los cambios contemplados. A continuaci??n, se describen las interacciones que se producen en el aula alrededor de los procesos de instrucci??n, tanto con ordenador como sin ??l, para finalmente poner en relaci??n los cambios observados entre las diversas evaluaciones de los sujetos con los procesos de interacci??n estudiados y con los tipos de afectaci??n que sufren. Instrumentos de evaluaci??n, pruebas cl??sicas de aptitudes y conocimientos, escalas de apreciaci??n de conducta. Tablas. Las pruebas pedag??gicas graduadas y el c??digo de observaci??n cumplen sus papeles. El profesorado en ninguna de las variables tomadas en consideraci??n sufre modificaciones. Los padres constatan variaciones significativas en aspectos actitudinales: la par??lisis cerebral y los ordenadores. Los ni??os avanzan en los aspectos psicopedag??gicos y en las medidas cl??sicas de inteligencia, a pesar de que su desarrollo motriz no mejora. El tipo y cantidad de ayuda que el profesor ofrece, as?? como los mensajes motivacionales y sistemas de incentivos, no tienen en cuenta el nivel de dificultad que la tarea le supone al ni??o. El rendimiento en las tareas realizadas por ordenador es el mismo que en las tareas realizadas sin ??l. En los primeros a??os del curr??culum juegan un papel importante las actividades de rehabilitaci??n. Los resultados parciales se estructuran en 13 estudios independientes agrupados en 5 bloques diferentes organizados segun un criterio temporal y explicativo. Ofrecen implicaciones educativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Determinar si los procesos de codificación visual están implicados en el trastorno de la dislexia. Hipótesis: los malos lectores tendrán problemas al utilizar la ruta visual controlada, por lo que en una tarea que mida el proceso de transferencia desde la memoria icónica a la memoria de trabajo presentarán tiempos de procesamiento más lentos que los de los buenos lectores. 80 sujetos pertenecientes a los primeros cursos de EGB Del CP Santa María de Gracia de Murcia. Los criterios que se consideraron fueron: nivel intelectual normal, buen rendimiento escolar, ausencia de problemas emocionales, conductuales, deficiencia física y nivel socioeconómico medio. Se distribuyeron en dos grupos de diferente nivel de habilidad lectora (40 niños buenos lectores y 40 disléxicos evolutivos). Se utilizó una tarea de enmascaramiento visual por medio de un computador IBM, utilizándose estímulos no lingüísticos formados por figuras geométricas (con significado semántico) y figuras sin sentido, con un total de 10 conjuntos de estímulos que constituyen la base de las 10 variables dependientes. La tarea consistió en que el sujeto comparara, por una parte, las figuras familiares con otras también del mismo tipo, y por otra, las figuras sin sentido con otras también de su mismo tipo, iguales o distintas. La variable principal es el tiempo de reaccion. Reversal test para determinar el nivel intelectual. TALE para la elección de buenos o malos lectores. Computador IBM para aplicar el programa informático que constituía la prueba experimental. Análisis de varianza sobre la variable edad y sobre la capacidad intelectual. Cuadrado latino estrategia de contraequilibración intergrupo incompleta. Análisis de varianza multivariado sobre tiempos de reacción. Análisis de varianza factorial mixto para ver medidas de precisión. Análisis discriminante para ver si la tarea de enmascaramiento visual es una buena prueba para distinguir lectores. A pesar de que los resultados con la tarea de enmascaramiento en este experimento, tomados globalmente, parecen indicar que los buenos lectores y los malos lectores se diferencian en los procesos cognitivos de codificación, las pruebas univariadas nos muestran que el proceso de transferencia de la información no debe considerarse un factor totalmente determinante en la explicación de la dislexia. Al finalizar el trabajo, nada se opone a continuar pensando que los procesos de codificación están directamente implicados en la causación de la dislexia, aunque creemos que los procesos de codificación visual deben interactuar con los procesos de codificación fonológica, pero esta investigación no permite comprobar esta hipótesis. Pensamos que investigaciones posteriores sí deberían incidir en este campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En base a los datos obtenidos por distintos estudios sobre las diversas lenguas respecto a los procesos cognitivos que intervienen en la lectura, hacer una aportación desde la lengua castellana en uno de estos procesos cognitivos: las propiedades relevantes del estímulo (letras) que sirven para la identificación y su posterior reconocimiento. Cuatro alumnos de tercer curso de Psicología de la Universidad de Murcia, elegidos aleatoriamente y sin distinción de sexo por no haber evidencia empírica sobre influencia de esta variable. Se presentaron a los sujetos los dos tipos de escritura (Courier 10 y Script) en dos alfabetos aleatorios en cada tipo. La experiencia duró una hora y media por sujeto, con paradas de quince minutos tras veinte diapositivas. Se recogieron los resultados, número de aciertos y de errores para su posterior análisis. Dos series de 27 letras minúsculas mecanografiadas de una máquina IBM, tipo Courier 10 y Script, ambos difieren notablemente y se pretendía comprobar si ello implica una diferencia en el tipo de indicios relevantes utilizados en el reconocimiento de letras o bien éstos permanecen invariantes en un tipo de letra u otro. Diapositivas. Taquistoscopio Kodak Ektagraphic modelo AF-2K. Agrupación de los resultados para someterles a un análisis comparativo según los modelos de Bouma, Kuennapas y Janson y Massaro. Ninguno de los modelos comparados con nuestros datos explican los datos encontrados. Puede ser debido a una inadecuación de dichos modelos para explicar cuáles son las características de las letras que sirven como indicio en el reconocimiento de las letras, o bien que todavía no se ha encontrado un procedimiento experimental adecuado para obtener evidencia empírica. Será necesario mucha investigación para obtener la información necesaria acerca de cuáles son las características relevantes en el reconocimiento de las letras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Monográfico con el título: 'Mejorar la escuela: perspectivas didácticas y organizativas'. Resumen basado en el de la publicación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A full assessment of para-­virtualization is important, because without knowledge about the various overheads, users can not understand whether using virtualization is a good idea or not. In this paper we are very interested in assessing the overheads of running various benchmarks on bare-­‐metal, as well as on para-­‐virtualization. The idea is to see what the overheads of para-­‐ virtualization are, as well as looking at the overheads of turning on monitoring and logging. The knowledge from assessing various benchmarks on these different systems will help a range of users understand the use of virtualization systems. In this paper we assess the overheads of using Xen, VMware, KVM and Citrix, see Table 1. These different virtualization systems are used extensively by cloud-­‐users. We are using various Netlib1 benchmarks, which have been developed by the University of Tennessee at Knoxville (UTK), and Oak Ridge National Laboratory (ORNL). In order to assess these virtualization systems, we run the benchmarks on bare-­‐metal, then on the para-­‐virtualization, and finally we turn on monitoring and logging. The later is important as users are interested in Service Level Agreements (SLAs) used by the Cloud providers, and the use of logging is a means of assessing the services bought and used from commercial providers. In this paper we assess the virtualization systems on three different systems. We use the Thamesblue supercomputer, the Hactar cluster and IBM JS20 blade server (see Table 2), which are all servers available at the University of Reading. A functional virtualization system is multi-­‐layered and is driven by the privileged components. Virtualization systems can host multiple guest operating systems, which run on its own domain, and the system schedules virtual CPUs and memory within each Virtual Machines (VM) to make the best use of the available resources. The guest-­‐operating system schedules each application accordingly. You can deploy virtualization as full virtualization or para-­‐virtualization. Full virtualization provides a total abstraction of the underlying physical system and creates a new virtual system, where the guest operating systems can run. No modifications are needed in the guest OS or application, e.g. the guest OS or application is not aware of the virtualized environment and runs normally. Para-­‐virualization requires user modification of the guest operating systems, which runs on the virtual machines, e.g. these guest operating systems are aware that they are running on a virtual machine, and provide near-­‐native performance. You can deploy both para-­‐virtualization and full virtualization across various virtualized systems. Para-­‐virtualization is an OS-­‐assisted virtualization; where some modifications are made in the guest operating system to enable better performance. In this kind of virtualization, the guest operating system is aware of the fact that it is running on the virtualized hardware and not on the bare hardware. In para-­‐virtualization, the device drivers in the guest operating system coordinate the device drivers of host operating system and reduce the performance overheads. The use of para-­‐virtualization [0] is intended to avoid the bottleneck associated with slow hardware interrupts that exist when full virtualization is employed. It has revealed [0] that para-­‐ virtualization does not impose significant performance overhead in high performance computing, and this in turn this has implications for the use of cloud computing for hosting HPC applications. The “apparent” improvement in virtualization has led us to formulate the hypothesis that certain classes of HPC applications should be able to execute in a cloud environment, with minimal performance degradation. In order to support this hypothesis, first it is necessary to define exactly what is meant by a “class” of application, and secondly it will be necessary to observe application performance, both within a virtual machine and when executing on bare hardware. A further potential complication is associated with the need for Cloud service providers to support Service Level Agreements (SLA), so that system utilisation can be audited.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we describe a lightweight Web portal developed for running computational jobs on a IBM JS21 Bladecenter cluster, ThamesBlue, for inferring and analyzing evolutionary histories. We first discuss the need for leveraging HPC as a enabler for molecular phylogenetics research. We go on to describe how the portal is designed to interface with existing open-source software that is typical of a HPC resource configuration, and how by design this portal is generic enough to be portable to other similarly configured compute clusters, and for other applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Danish Eulerian Model (DEM) is a powerful air pollution model, designed to calculate the concentrations of various dangerous species over a large geographical region (e.g. Europe). It takes into account the main physical and chemical processes between these species, the actual meteorological conditions, emissions, etc.. This is a huge computational task and requires significant resources of storage and CPU time. Parallel computing is essential for the efficient practical use of the model. Some efficient parallel versions of the model were created over the past several years. A suitable parallel version of DEM by using the Message Passing Interface library (AIPI) was implemented on two powerful supercomputers of the EPCC - Edinburgh, available via the HPC-Europa programme for transnational access to research infrastructures in EC: a Sun Fire E15K and an IBM HPCx cluster. Although the implementation is in principal, the same for both supercomputers, few modifications had to be done for successful porting of the code on the IBM HPCx cluster. Performance analysis and parallel optimization was done next. Results from bench marking experiments will be presented in this paper. Another set of experiments was carried out in order to investigate the sensitivity of the model to variation of some chemical rate constants in the chemical submodel. Certain modifications of the code were necessary to be done in accordance with this task. The obtained results will be used for further sensitivity analysis Studies by using Monte Carlo simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes a prototype grid infrastructure, called the eMinerals minigrid, for molecular simulation scientists. which is based on an integration of shared compute and data resources. We describe the key components, namely the use of Condor pools, Linux/Unix clusters with PBS and IBM's LoadLeveller job handling tools, the use of Globus for security handling, the use of Condor-G tools for wrapping globus job submit commands, Condor's DAGman tool for handling workflow, the Storage Resource Broker for handling data, and the CCLRC dataportal and associated tools for both archiving data with metadata and making data available to other workers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A complete treatment of the charcterastic admittance-matrix representation of multilayer thin-film systems with absorbing media is presented. The algorithm from the systems analysis is implemented on an IBM microcomputer and some examples of filter design calculation are presented. Relevant source code in IBM Advanced Basic interpreter are also included.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Programming is a skill which requires knowledge of both the basic constructs of the computer language used and techniques employing these constructs. How these are used in any given application is determined intuitively, and this intuition is based on experience of programs already written. One aim of this book is to describe the techniques and give practical examples of the techniques in action - to provide some experience. Another aim of the book is to show how a program should be developed, in particular how a relatively large program should be tackled in a structured manner. These aims are accomplished essentially by describing the writing of one large program, a diagram generator package, in which a number of useful programming techniques are employed. Also, the book provides a useful program, with an in-built manual describing not only how the program works, but also how it does it, with full source code listings. This means that the user can, if required, modify the package to meet particular requirements. A floppy disk is available from the publishers containing the program, including listings of the source code. All the programs are written in Modula-2, using JPI's Top Speed Modula-2 system running on IBM-PCs and compatibles. This language was chosen as it is an ideal language for implementing large programs and it is the main language taught in the Cybernetics Department at the University of Reading. There are some aspects of the Top Speed implementation which are not standard, so suitable comments are given when these occur. Although implemented in Modula-2, many of the techniques described here are appropriate to other languages, like Pascal of C, for example. The book and programs are based on a second year undergraduate course taught at Reading to Cybernetics students, entitled Algorithms and Data Structures. Useful techniques are described for the reader to use, applications where they are appropriate are recommended, but detailed analyses of the techniques are not given.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Environmental building assessment tools have been developed to measure how well or poorly a building is performing, or likely to perform, against a declared set of criteria, or environmental considerations, in order to achieve sustainability principles. Knowledge of environmental building assessment tools is therefore important for successful design and construction of environmentally friendly buildings for countries. The purpose of the research is to investigate the knowledge and level of awareness of environmental building assessment tools among industry practitioners in Botswana. One hundred and seven paper-based questionnaires were delivered to industry practitioners, including architects, engineers, quantity surveyors, real estate developers and academics. Users were asked what they know about building assessment, whether they have used any building assessment tool in the past, and what they perceive as possible barriers to the implementation of environmental building assessment tools in Botswana. Sixty five were returned and statistical analysis, using IBM SPSS V19 software, was used for analysis. Almost 85 per cent of respondents indicate that they are extremely or moderately aware of environmental design. Furthermore, the results indicate that 32 per cent of respondents have gone through formal training, which suggests ‘reasonable knowledge’. This however does not correspond with the use of the tools on the ground as 69 per cent of practitioners report never to have used any environmental building assessment tool in any project. The study highlights the need to develop an assessment tool for Botswana to enhance knowledge and further improve the level of awareness of environmental issues relating to building design and construction.