990 resultados para Aproximación de funciones


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se extiende el concepto de aproximación de un número real al de aproximación de una función. En la primera fase, a partir de la suma de una progresión geométrica, se obtienen casos particulares de funciones polinómicas que aproximan un tipo concreto de funciones racionales. En la segunda fase se encuentran funciones polinómicas que aproximan cualquier función continua. El profesor utiliza la historia de las Matemáticas como recurso didáctico haciendo comentarios que recuerdan la evolución histórica de la aproximación de funciones en series de potencias. Este recorrido es el mismo que van a seguir los alumnos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El aprendizaje por refuerzo es un modelo de aprendizaje que permite implementar comportamientos inteligentes de forma automática. La mayor parte de la teoría del aprendizaje por refuerzo se fundamenta en la programación dinámica. La implementación tradicional de estas funciones en forma tabular no es práctica cuando el espacio de estados es muy grande, o infinito. En este caso es necesario aplicar métodos de generalización que permitan extrapolar la experiencia adquirida para un conjunto limitado de estados, a la totalidad del espacio.. Para resolver el problema mencionado se puede recurrir a dos aproximaciones. Por un lado, existen técnicas basadas en una selección adecuada de puntos significativos y, por otro, se pueden emplear los métodos basados en el desarrollo de funciones de valor con algún método supervisado de aproximación de funciones. El trabajo trata de desarrollar métodos de aprendizaje por refuerzo aplicables en dominios con espacios de estados continuos, partiendo de las dos aproximaciones mencionadas, para fundirlas en un método eficaz que permita que el aprendizaje totalmente automático.. Esta investigación facilita un nuevo método de aprendizaje por refuerzo para dominios con espacios de estados continuos (ENNC-QL). Este método permite aprender tareas en entornos de varias dimensiones con mayor eficacia y el número de parámetros que debe suministrársele es mínimo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La mecanización de las labores del suelo es la causa, por su consumo energético e impacto directo sobre el medio ambiente, que más afecta a la degradación y pérdida de productividad de los suelos. Entre los factores de disminución de la productividad se deben considerar la compactación, la erosión, el encostramiento y la pérdida de estructura. Todo esto obliga a cuidar el manejo agrícola de los suelos tratando de mejorar las condiciones del suelo y elevar sus rendimientos sin comprometer aspectos económicos, ecológicos y ambientales. En el presente trabajo se adecuan los parámetros constitutivos del modelo de Drucker Prager Extendido (DPE) que definen la fricción y la dilatancia del suelo en la fase de deformación plástica, para minimizar los errores en las predicciones durante la simulación de la respuesta mecánica de un Vertisol mediante el Método de Elementos Finitos. Para lo cual inicialmente se analizaron las bases teóricas que soportan este modelo, se determinaron las propiedades y parámetros físico-mecánicos del suelo requeridos como datos de entrada por el modelo, se determinó la exactitud de este modelo en las predicciones de la respuesta mecánica del suelo, se estimaron mediante el método de aproximación de funciones de Levenberg-Marquardt los parámetros constitutivos que definen la trayectoria de la curva esfuerzo-deformación plástica. Finalmente se comprobó la exactitud de las predicciones a partir de las adecuaciones realizadas al modelo. Los resultados permitieron determinar las propiedades y parámetros del suelo, requeridos como datos de entrada por el modelo, mostrando que su magnitud está en función su estado de humedad y densidad, además se obtuvieron los modelos empíricos de estas relaciones exhibiendo un R2>94%. Se definieron las variables que provocan las inexactitudes del modelo constitutivo (ángulo de fricción y dilatancia), mostrando que las mismas están relacionadas con la etapa de falla y deformación plástica. Finalmente se estimaron los valores óptimos de estos ángulos, disminuyendo los errores en las predicciones del modelo DPE por debajo del 4,35% haciéndelo adecuado para la simulación de la respuesta mecánica del suelo investigado. ABSTRACT The mechanization using farming techniques is one of the main factors that affects the most the soil, causing its degradation and loss of productivity, because of its energy consumption and direct impact on the environment. Compaction, erosion, crusting and loss of structure should be considered among the factors that decrease productivity. All this forces the necessity to take care of the agricultural-land management trying to improve soil conditions and increase yields without compromising economic, ecological and environmental aspects. The present study was aimed to adjust the parameters of the Drucker-Prager Extended Model (DPE), defining friction and dilation of soil in plastic deformation phase, in order to minimize the error of prediction when simulating the mechanical response of a Vertisol through the fine element method. First of all the theoretic fundamentals that withstand the model were analyzed. The properties and physical-mechanical parameters of the soil needed as input data to initialize the model, were established. And the precision of the predictions for the mechanical response of the soil was assessed. Then the constitutive parameters which define the path of the plastic stress-strain curve were estimated through Levenberg-Marquardt method of function approximations. Lastly the accuracy of the predictions from the adequacies made to the model was tested. The results permitted to determine those properties and parameters of the soil, needed in order to initialize the model. It showed that their magnitude is in function of density and humidity. Moreover, the empirical models from these relations were obtained: R2>94%. The variables producing inaccuracies in the constitutive model (angle of repose and dilation) were defined, and there was showed that they are linked with the plastic deformation and rupture point. Finally the optimal values of these angles were established, obtaining thereafter error values for the DPE model under 4, 35%, and making it suitable for the simulation of the mechanical response of the soil under study.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales dedeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Propuesta didáctica para la explicación de las funciones de polinomios. Se proponen diversas actividades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se analiza la importancia de la inclusión del tema de sucesiones desde preescolar hasta el nivel medio superior en México. El marco teórico que da soporte a esta investigación es la Teoría de Representaciones Semióticas de Duval (1998), en combinación con el uso de tecnología TI-Nspire. Centramos la atención en el nivel medio superior, con la finalidad de que los alumnos a través del manejo de las representaciones semióticas: verbal, gráfica, tabular y analítica, adquieran el concepto de sucesión aún sin definirlo formalmente. A través del uso de representaciones semióticas instrumentadas en la calculadora TINSpire con ejemplos acordes al entorno del alumno (deportes, medio ambiente) se forma el concepto de sucesión. Paralelamente se insiste en la detección tanto del dominio, imagen y grafo; lo anterior con la finalidad de que el alumno visualice y detecte que el dominio de las funciones en juego siempre es el conjunto de los números naturales y la imagen un subconjunto de los números reales, así como de la relación funcional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mostrar qué tipo de planificación realiza el profesor de apoyo para la integración de los trisómicos-21. Hacer evidente el proceso de decisiones interactivas del profesor de apoyo. Explicar las teorías implícitas, creencias del profesor y hacer visible el paisaje de integración de los trisómicos-21 en Málaga desde el pensamiento pedagógico del profesor de apoyo. Nueve profesores de apoyo para la integración de los trisómicos-21. La primera fase utiliza el cuestionario para la recogida de información, obteniendo una visión general de los profesores respecto a la integración. En la segunda fase se hacen fotografías que luego son comentadas por un mínimo de tres personas, entre ellas el profesor de apoyo, para un mayor acercamiento al tema de estudio. En la fase siguiente se aproxima la planificación, toma de decisiones y teorías de los profesores de apoyo, por último la investigación se centra en un solo sujeto. Cuestionario, cintas grabadas, videograma, diario de campo y fotografías. Estimulación del recuerdo, videoanálisis, observación persistente y triangulación. Los profesores de apoyo elaboran los programas de desarrollo individual junto al logopeda, el psicólogo y profesor tutor. Las decisiones interactivas que toma el profesor de apoyo están relacionadas con la planificación de los programas de desarrollo individual y se destina a actividades relacionadas con la comunicación oral, escritas y otras. Las creencias de estos profesores se basan en las posibilidades cognitivas de los trisómicos-21. Las funciones que creen desempeñar son las de procurar cambios para la integración, asesorar a los padres de los niños, que se verían más favorecidos si la Administración no estuviese alejada de los problemas de los colegios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La variable aleatoria es una función matemática que permite asignar valores numéricos a cada uno de los posibles resultados obtenidos en un evento de naturaleza aleatoria. Si el número de estos resultados se puede contar, se tiene un conjunto discreto; por el contrario, cuando el número de resultados es infinito y no se puede contar, se tiene un conjunto continuo. El objetivo de la variable aleatoria es permitir adelantar estudios probabilísticos y estadísticos a partir del establecimiento de una asignación numérica a través de la cual se identifiquen cada uno de los resultados que pueden ser obtenidos en el desarrollo de un evento determinado. El valor esperado y la varianza son los parámetros por medio de los cuales es posible caracterizar el comportamiento de los datos reunidos en el desarrollo de una situación experimental; el valor esperado permite establecer el valor sobre el cual se centra la distribución de la probabilidad, mientras que la varianza proporciona información acerca de la manera como se distribuyen los datos obtenidos. Adicionalmente, las distribuciones de probabilidad son funciones numéricas asociadas a la variable aleatoria que describen la asignación de probabilidad para cada uno de los elementos del espacio muestral y se caracterizan por ser un conjunto de parámetros que establecen su comportamiento funcional, es decir, cada uno de los parámetros propios de la distribución suministra información del experimento aleatorio al que se asocia. El documento se cierra con una aproximación de la variable aleatoria a procesos de toma de decisión que implican condiciones de riesgo e incertidumbre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objeto de este trabajo de investigación fue estudiar cómo ha operado el derecho administrativo disciplinario frente a un tema muy específico, las “infracciones graves al Derecho Internacional Humanitario”, conducta consagrada como falta disciplinaria gravísima en el numeral 7° de la Ley 734 de 2002. Sin embargo, con el fin de delimitar el objeto de investigación, el estudio se redujo a la conducta específica de “homicidio en persona protegida” por el derecho internacional humanitario y para delimitarlo aún más, se estudió concretamente esa conducta respecto de la “población civil”.La elaboración de la investigación conllevó un estudio preliminar de los conceptos generales del DIH así como un estudio general de las principales instituciones del derecho administrativo disciplinario, partiendo de disposiciones constitucionales y legales e incluyendo los principales pronunciamientos de la Corte Constitucional y de la doctrina especializada. Esta primera etapa sirvió de punto de partida para posteriormente proceder con el estudio de casos y de esa manera verificar si los fundamentos de las decisiones disciplinarias corresponden con la explicación teórica que ha sido expuesta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existen en la actualidad múltiples modelos de gestión de conocimiento y medición del capital humano, los cuales son aplicados en las organizaciones, pero ninguno de éstos ha sido diseñado para Instituciones de Educación Superior. En este trabajo se hace un recuento de algunos de los modelos de gestión del conocimiento y capital intelectual más destacados como el Modelo de conversión del conocimiento de Nonaka y Takeuchi, el Modelo de GC de Arthur Andersen, el Cuadro de Mando Integral de Kaplan y Norton, entre otros, pero es a partir del Modelo Organizacional Estrella de Galbraith que se presenta una propuesta teórica para caracterizar un modelo de gestión del conocimiento aplicable a las funciones universitarias de investigación y extensión en la Universidad CES – Medellín, Colombia, a través de una investigación cualitativa en donde, a partir de la correlación entre la teoría general de la GC, particularmente de los modelos y el análisis de las características de la Universidad CES, así como la revisión sistemática, el grupo focal y el análisis documental se propone el Modelo Hexagonal de GC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mejorar la competencia lingüística de los alumnos de 1. de BUP (70 en total) del Instituto Isabel de España, a través de la experimentación de un curso de Lengua eminentemente práctico. El objeto del trabajo es comprobar el rendimiento de dos grupos experimentales y compararlos con otros dos grupos del mismo nivel, no sometidos a la experiencia. Las actividades desarrolladas han sido: comprensión y producción de textos; lectura dirigida de una novela y varios cuentos; además, los alumnos han asistido a un aula de Informática permitiéndoles practicar funciones básicas del procesador de textos; una última actividad, la realización de ejercicios de ortografía y léxico, centrados en los medios de comunicación prensa y radio. La observación del trabajo cotidiano, el registro en fichas individuales de datos lingüísticos y la utilización de una prueba inicial y final, han dado unos resultados a tener en cuenta. En general, la experiencia ha sido satisfactoria. Se ha constatado cierta mejoría en el nivel de Lengua de los alumnos, reflejado en los resultados académicos. Por otra parte, el grado de participación y satisfacción de los alumnos ha sido notable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El documento hace una revisión de las principales fuentes de protección social que hay en Colombia y las características de los sistemas de protección de otros países. Se encuentra que gran parte de lo que se conoce como gasto social se destina al tema pensional y que los resultados de los fondos de solidaridad son muy pequeños frente a la autoprotección de los hogares. Se propone tener en cuenta los esfuerzos individuales y privados que hay en Colombia al diseñar un sistema de protección social, pues de lo contrario se estarían desincentivando estos esfuerzos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El río Grande de la Magdalena marcó la historia del Caribe colombiano. Las grandes ciudades de la región nacieron y crecieron a sus orillas y vivieron a merced de sus caprichos. En un país enmarcado por cordilleras intransitables, la única vía de penetración y el camino más seguro para cualquier proceso de intercambio político o comercial era el cauce del río. Salir hacia las costas implicaba ciertas dificultades, pero remontar para llevar el comercio, la información o para el tránsito humano resultaba un proceso mucho más largo, costoso y complicado. Era necesario acudir a los bogas y subir el cauce con tracción humana, en contra de la corriente (Posada Carbó, 1989; Nichols, 1973).