985 resultados para 1215-1563
Resumo:
Conclusiones que sobre el Dise??o Curricular Base se ha llegado tras los diferentes Seminarios, Grupos y Jornadas celebradas en los CEPs de la regi??n de Murcia. En primer lugar se recoge el an??lisis del Dise??o Curricular Base en su generalidad. Seguidamente su an??lisis en cada una de las etapas y ??reas. A continuaci??n el an??lisis de algunas cuestiones de la ESO y para finalizar el an??lisis de la educaci??n de adultos..
Resumo:
Unidad didáctica sobre el papel de la mujer en la publicidad dirigida a la formación permanente de mujeres dentro del Plan de Educación Permanente de Adultos. El objetivo es que las mujeres analicen el papel de la mujer en la publicidad, que sean críticas y conscientes de su propio rol y capaces de modificarlo..
Resumo:
Resumen basado en el de la publicación
Resumo:
Definir, a través del análisis de documentos normativos, cuales han sido los elementos que han ido configurando el modelo institucional de educación de adultos en las propuestas formativas en nuestro pais, y concretamente en Castilla y León. Comprobar cómo ese modelo institucional ha estado impregnado de los planteamientos programáticos y funcionales propios de la educación infanto-juvenil desde sus inicios. Diseñar una propuesta específica de evaluación de los programas de educación básica de personas adultas en los ámbitos rurales de Castilla y León, analizando y valorando el impacto, grado de satisfacción o insatisfacción y el nivel de irradiación socio-cultural de los actuales programas de educación básica de adultos. Se han tomado como unidad muestral los centros, aulas y actuaciones por convenios de las nueve provincias de Castilla y León, teniendo en cuenta la variable 'provincia' como variable relevante de clasificación muestral, quedando automáticamente determinadas las tres fuentes informantes: alumnado, profesorado y adultos egresados. Dentro de cada una de las provincias, para seleccionar la muestra invitada,se aplica el criterio de proporcionalidad teniendo en cuenta los centros y aulas representativos de cada provincia y los dos programas mayoritarios impartidos en todas ellas: educación básica de adultos y Formación Profesional de primer grado. Los profesores se encargaron de aplicar los cuestionarios a los alumnos; al profesorado se lo aplicaron los directores de los centros y a los egresados se les remitió por correo. Después se codificaron las variables y preguntas para su procesamiento mediante el paquete estádístico SPSS para Windows, versión 9.0. Tres cuestionarios, para el alumnado, para el profesorado y para los egresados respectivamente. Todos ellos se estructuran en cinco bloques: el primero relativo a la caracterización de la muestra de los participantes; el segundo se refiere a las motivaciones para asistir a los centros y aulas; el tercero busca información válida y variable sobre cómo valoran las enseñanzas impartidas por los contenidos, los beneficios aportados y la utilidad reportada; el cuarto se refería al impacto personal, social, familiar y profesional; y el quinto, dirigido a la valoración por el profesorado del modelo actual de educación de personas adultas y su proyección futura. Los alumnos y los egresados valoran con un alto porcentaje de aceptación las enseñanzas actuales y no consideran aburridos sus contenidos; el profesorado piensa que los contenidos son poco prácticos para los tiempos actuales. Las tres fuentes coinciden en valorar muy beneficioso el papel que estas enseñanzas tienen en el descenso del analfabetismo, la revalorización de la cultura, y el aumento de la participación y el uso de los bienes culturales de la comunidad. Existe un alto grado de satisfacción por parte de los alumnos y los egresados con los programas de educación de estas enseñanzas; la utilidad familiar, su inlfuencia en la educación de los hijos, es valorada muy positivamente por las tres fuentes informantes. Se les concede una buena valoración social, pero no se consideran útiles para conseguir un trabajo o promocionar en él. En el impacto personal han contribuido a mejorar las relaciones interpersonales, a solucionar más coherentemente los problemas de la vida diaria y a aumentar la seguridad personal..
Resumo:
Estudiar el evolucionísmo, acercarse a la sociobiología, destacar algunas posturas conductistas para entender al hombre, su conducta, su relación con el ambiente, con lo genético. Al hombre hay que mirarlo siempre desde un punto de vista integral, simplemente porque el hombre es el ser único en la naturaleza que dotado de razón puede evolucionar, reflexionar, cambiar. El hombre es un ser racional, el hombre es un ser en crecimiento, un ser, nunca hecho del todo y que continuamente se está haciendo (ser dinámico), donde importa el impulso para el desarrollo de todas las potencialidades humanas. Un ser además dotado de instinto y sentimientos. La educación debe considerarse decisiva para la especie humana, y la educación permite al hombre manejar, es decir, ser el 'domador'. La cultura es la domesticación del instinto. La cultura eleva al hombre de su condición como mero elemento de la naturaleza. La labor de los pedagogos está justificada y reclamada, pues el hombre tiene sed de cultura.
Resumo:
Describes a method to code a decimated model of an isosurface on an octree representation while maintaining volume data if it is needed. The proposed technique is based on grouping the marching cubes (MC) patterns into five configurations according the topology and the number of planes of the surface that are contained in a cell. Moreover, the discrete number of planes on which the surface lays is fixed. Starting from a complete volume octree, with the isosurface codified at terminal nodes according to the new configuration, a bottom-up strategy is taken for merging cells. Such a strategy allows one to implicitly represent co-planar faces in the upper octree levels without introducing any error. At the end of this merging process, when it is required, a reconstruction strategy is applied to generate the surface contained in the octree intersected leaves. Some examples with medical data demonstrate that a reduction of up to 50% in the number of polygons can be achieved
Resumo:
In this paper, we present view-dependent information theory quality measures for pixel sampling and scene discretization in flatland. The measures are based on a definition for the mutual information of a line, and have a purely geometrical basis. Several algorithms exploiting them are presented and compare well with an existing one based on depth differences
Resumo:
En los últimos años la proliferación de aplicaciones 3D en SIG ha sido enorme, desde la aparición de Google Earth el usuario está familiarizado con entornos 3D. Por otra parte lo ordenadores con aceleración 3D son comunes en la actualidad y el acceso a banda ancha es prácticamente generalizado, además cada vez hay mayor cantidad de datos públicos que pueden ser utilizados por clientes SIG que sean capas de recibir datos de Internet.Hay varias librerías apropiadas para la realización de este tipo de aplicaciones. IGO SOFTWARE a comenzado a desarrollar aplicaciones 3D con las librería Nasa World Wind SDK para java.Decidimos usar estar librerías por su robustez, sencillez, cantidad de ejemplo, estar hechas en java (nos permite su unión a muchas librerías SIG) y su uso de caché local. Las aplicaciones desarrolladas en 3D no sólo son visualmente más atractivas, también nos ofrecen más información que el SIG clásico en 2D. Gracias a la integración de librerías como SEXTANTE ahora es posible también realizar análisis. En un futuro se espera poder desarrollar también algoritmos de análisis en 3D usando dicha plataforma. Por otra parte, llevamos desde hace algunos años desarrollando aplicaciones para el tratamiento de nubes de puntos proveniente de Láser Escáner y LIDAR, esta plataforma es ideal para mostrar nubes de puntos, por lo que es perfecta para visualizar nubes de puntos georreferenciadas. Mostraremos ejemplos de aplicaciones programadas con estas librerías y las posibilidades que vemos de cara a un futuro a este tipo de desarrollos
Resumo:
The characteristics of service independence and flexibility of ATM networks make the control problems of such networks very critical. One of the main challenges in ATM networks is to design traffic control mechanisms that enable both economically efficient use of the network resources and desired quality of service to higher layer applications. Window flow control mechanisms of traditional packet switched networks are not well suited to real time services, at the speeds envisaged for the future networks. In this work, the utilisation of the Probability of Congestion (PC) as a bandwidth decision parameter is presented. The validity of PC utilisation is compared with QOS parameters in buffer-less environments when only the cell loss ratio (CLR) parameter is relevant. The convolution algorithm is a good solution for CAC in ATM networks with small buffers. If the source characteristics are known, the actual CLR can be very well estimated. Furthermore, this estimation is always conservative, allowing the retention of the network performance guarantees. Several experiments have been carried out and investigated to explain the deviation between the proposed method and the simulation. Time parameters for burst length and different buffer sizes have been considered. Experiments to confine the limits of the burst length with respect to the buffer size conclude that a minimum buffer size is necessary to achieve adequate cell contention. Note that propagation delay is a no dismiss limit for long distance and interactive communications, then small buffer must be used in order to minimise delay. Under previous premises, the convolution approach is the most accurate method used in bandwidth allocation. This method gives enough accuracy in both homogeneous and heterogeneous networks. But, the convolution approach has a considerable computation cost and a high number of accumulated calculations. To overcome this drawbacks, a new method of evaluation is analysed: the Enhanced Convolution Approach (ECA). In ECA, traffic is grouped in classes of identical parameters. By using the multinomial distribution function instead of the formula-based convolution, a partial state corresponding to each class of traffic is obtained. Finally, the global state probabilities are evaluated by multi-convolution of the partial results. This method avoids accumulated calculations and saves storage requirements, specially in complex scenarios. Sorting is the dominant factor for the formula-based convolution, whereas cost evaluation is the dominant factor for the enhanced convolution. A set of cut-off mechanisms are introduced to reduce the complexity of the ECA evaluation. The ECA also computes the CLR for each j-class of traffic (CLRj), an expression for the CLRj evaluation is also presented. We can conclude that by combining the ECA method with cut-off mechanisms, utilisation of ECA in real-time CAC environments as a single level scheme is always possible.
Resumo:
This paper examines the auditory training procedures used at Central Institute for the Deaf.
Resumo:
This paper discusses whether the use of tympanometry and current normative values are applicable in assessing middle ear status in children with cochlear implants.
Development, maturation, and necessity of transcription factors in the mouse suprachiasmatic nucleus
Resumo:
Esta tesis busca definir una alternativa para administrar los proyectos de desarrollo de software basándose en la Teoría de Restricciones del Dr. Eliyahu M. Goldratt y siguiendo los principios de la metodología Ágil Scrum, con el fin de lograr proyectos exitosos que satisfagan a los clientes y sean rentables para la compañía ejecutora. En el capítulo 1 se presenta el marco lógico de la Teoría de Restricciones y los 5 pasos propuestos para implementar un proceso de mejora continua identificado el elemento que limita al sistema y le impide generar los resultados financieros deseados. Se continúa con el análisis de las particularidades de los proyectos de desarrollo de software, las bases que sustentan a las metodologías de Desarrollo Ágil y se estudia en detalle a Scrum. En el capítulo 3 se conjugan las reglas del marco de trabajo Scrum con los lineamientos de la TOC para obtener una guía práctica para administrar los proyectos de desarrollo de software. Se evidencia que el proceso de desarrollo es un sistema con una restricción que lo limita y que se pueden aplicar los 5 pasos propuestos por la TOC para optimizarlo. Además, los argumentos lógicos de la Cadena Crítica, aplicación de la TOC para administrar proyectos, permite asignar amortiguadores en los lugares adecuados de la ruta del proyecto haciendo que el Scrum Master se enfoque en los desfases causados por los inevitables imprevistos. En el capítulo 4 se analizan las convenciones de la contabilidad de Throughput para definir indicadores de operación y de resultados que nos permitan monitorear y controlar los avances de los proyectos, determinar su éxito y poder comparar las continuas mejoras conseguidas con la aplicación de la TOC y Scrum. En el último capítulo el lector podrá encontrar la aplicación de la teoría analizada en un proyecto real que ha sido seleccionado para ilustrar de mejor manera el marco de trabajo propuesto.