896 resultados para Esquema de límite de una función
Resumo:
169 p.
Resumo:
Presentamos una investigación cuyo objetivo es analizar la comprensión de la recta tangente en un entorno de aprendizaje en el que se puede usar un CAS. Desde las perspectivas históricas y cognitivas (APOS) analizaremos una serie textos de Bachillerato e Ingeniería que nos permitirá fijar una propuesta para la comprensión de la recta tangente como el límite de una sucesión de rectas secantes que tienen en común el punto de tangencia. Finalmente, mostramos unas herramientas diseñadas con el asistente matemático MATLAB© (génesis instrumental), accesibles online, que pueden ayudar a los estudiantes, especialmente en el registro gráfico, a construir los objetos cognitivos descritos en la descomposición genética.
Resumo:
Se declaró infundado el recurso de anulación interpuesto contra el laudo arbitral proferido el 26 de agosto de 2010 por el Tribunal de Arbitramento constituido para dirimir las controversias surgidas en relación con el contrato de consultoría No. 104 de 2007, celebrado entre el señor Juan Bernardo Botero y la Empresa de Obras Sanitarias de Caldas S.A., E.S.P. - EMPOCALDAS S.A., E.S.P.
Resumo:
Resumen tomado de la publicación. IV número monográfico con el título: VII Seminario de Investigación y pensamiento numérico y algebraico (PNA).
Resumo:
Resumen basado en el de la publicación
Resumo:
Identificar factores y fenómenos didácticos que influyen en una adecuada comprensión, por parte de los estudiantes, de los conceptos fundamentales del Análisis Matemático: límite, continuidad, derivada e integral; el logro de una armonización de la enseñanza, por medio del uso de estrategias de enseñanza-aprendizaje en situaciones didácticas adecuadas, en los cursos que enlazan dos niveles educativos (Bachillerato-Logse y Universidad); análizar epistemológicamente la génesis y evolución histórica de las distintas nociones objeto de estudio; analizar comparativamente libros de texto actuales, según autor y nivel de enseñanza, respecto a los conceptos de límite, continuidad, derivadas e integral; estudiar cualitativa-cuantitativamente la evolución de concepciones y obstáculos de los estudiantes de ambos niveles; realizar un diagnóstico, a la vista de los resultados obtenidos, sobre los contenidos y el tipo de enseñanza a realizar en ambos niveles educativos con objeto de lograr su armonización. Las hipótesis estudiadas fueron: con referencia a las situaciones de enseñanza donde aparecen los conceptos de límite, continuidad, derivada e integral, los libros de texto y los estudiantes muestran unas concepciones que pueden identificarse dentro de las que el estudio histórico determina sobre la noción; en el tratamiento didáctico que se da a estos conceptos en los textos dirigidos al Bachillerato-Logse y al primer curso de Univrisdad, no aparece de modo sistemático una secuenciación adecuada de los pasos necesarios para provocar los actos de comprensión en el estudiante que le permitan superar los obstáculos inherentes al concepto y al proceso de transposición didáctica; los estudiantes del Bachillerato-Logse y de primer curso universitario no muestran una evolución en la compresnión de los conceptos objeto de estudio, en cuanto a la ampliación de sus concepciones y la superación de obstáculos, una vez recibida la instrucción; las respuestas erróneas de los estudiantes no ocurren al azar, sino que están asociadas a los distintos obstáculos inherentes a los conceptos y al proceso de transposición didáctica. 18 alumnos de segundo curso de Bachillerato-Logse del IES Pablo de Olavide, de La Carolina (Jaén); 15 alumnos de primero de IT en Informática de Gestión; 12 libros de texto correspondientes a 1995-2000. El análisis de libros de texto se efectuará desde un punto de vista descriptivo. Se estudiaron variables dependientes, independientes, concomitantes tanto en los libros de texto y apuntes del profesor como en los estudiantes participantes. Los resultados son los siguientes: se han detectado concepciones y obstáculos en la génesis y desarrollo epistemológico de los conceptos del límite, continuidad y derivada de una función que, en general, se corresponden con los mostrados por manuales y alumnos; el análisis de manuales muestra que no se realizan en ellos secuencias de enseñanza capaces de abordar los obstáculos epistemológicos inherentes a los conceptos ni de facilitar la emergencia de actos de comprensión; en la evolución de concepciones y obstáculos en los alumnos participantes en la investigación, después de la enseñanza recibida, se detectan, por medio de un cuestionario construido para esta investigación, errores que no ocurren al azar, sino que están asociados a los distintos obstáculos inherentes a los conceptos y al proceso de transposición didáctica; según los resultados anteriores se muestran orientaciones didácticas dirigidas a la enseñanza de los conceptos de límite, continuidad y derivada de una función.
Resumo:
Estudiar las concepciones y obstáculos epistemológicos que han aparecido en el desarrollo histórico de los conceptos de límite y continuidad. Descubrir las concepciones que tienen los alumnos sobre estos dos conceptos. Encontrar las relaciones existentes entre ambas concepciones (históricas y de los alumnos). Analizar la transposición didáctica del saber matemático al saber escolar a través de los textos utilizados en el bachillerato y Curso de Orientación Universitaria y su evolución desde la década de los 50 hasta nuestros días, como posibles instrumentos generadores de las concepciones de los alumnos. Establecimiento de las dos hipótesis de trabajo. Temporalización de la investigación en dos cursos académicos. Curso 94-95: análisis de la transposición didáctica de los conceptos límite y continuidad, análisis de los libros de texto desde los 50ïs con la metodología de Schubring (1987). Elaboración de un precuestionario para conocer las concepciones de los alumnos y posteriormente elaboración del cuestionario definitivo. Curso 95-96 presentación del cuestionario a los alumnos, análisis de los datos. Estudio del desarrollo histórico de los conceptos. Búsqueda de las relaciones existentes entre las concepciones de los alumnos y las históricas. En el cuestionario donde se planteaban situaciones problemáticas referidas a ambos conceptos se pusieron de manifiesto los siguientes aspectos: el criterio más utilizado en la aplicación de límites es el de límite por la derecha o por la izquierda, clasificado como conocimiento escolar. La idea de aproximarse corresponde a las concepciones de Dálembert y Cauchy. El tercer criterio de justificación más utilizado es el de sustituir valores, que correspondería a la concepción de Euler-Lagrange. Para la continuidad, el criterio más usado es el plantear que una función es continua si se puede dibujar su gráfica sin levantar el lápiz del papel, próxima a la concepción intuitivo-geométrica. El segundo criterio - que se manifiesta como erróneo- es el afirmar que una función es continua si esta definida en todo punto. El tercer criterio más usado es próximo a la concepción de Cauchy. La dificultad que entrañan ambos conceptos hace que se presenten muchas respuestas erróneas entre los alumnos. El análisis de los libros de texto muestra diferencias notables entre ellos. Después de un primer periodo donde la atención estaba puesta en el rigor de la definiciones, se continuó con un énfasis en la formalización de la matemática moderna. Superado este periodo los autores tratan de presentar los conceptos conectados con situaciones y apelando a la intuición. Para el límite y la continuidad existe una evolución desde la consideración de ambos conceptos ligados al de función, pasando por un largo periodo en que tienen entidad propia, hasta la última reforma en que se enfatiza el carácter instrumental de los mismos. La transposición didáctica desde el saber matemático al saber contenido en los libros de texto son fuente de las concepciones detectadas en el saber escolar, a través del análisis de las respuestas al cuestionario. Durante el aprendizaje de los citados conceptos, los alumnos desarrollan una serie de concepciones que están relacionadas con las que han surgido en el desarrollo histórico y además aparecen otras inducidas por la propia enseñanza.
Resumo:
Situado en el límite entre Ingeniería, Informática y Biología, la mecánica computacional de las neuronas aparece como un nuevo campo interdisciplinar que potencialmente puede ser capaz de abordar problemas clínicos desde una perspectiva diferente. Este campo es multiescala por naturaleza, yendo desde la nanoescala (como, por ejemplo, los dímeros de tubulina) a la macroescala (como, por ejemplo, el tejido cerebral), y tiene como objetivo abordar problemas que son complejos, y algunas veces imposibles, de estudiar con medios experimentales. La modelización computacional ha sido ampliamente empleada en aplicaciones Neurocientíficas tan diversas como el crecimiento neuronal o la propagación de los potenciales de acción compuestos. Sin embargo, en la mayoría de los enfoques de modelización hechos hasta ahora, la interacción entre la célula y el medio/estímulo que la rodea ha sido muy poco explorada. A pesar de la tremenda importancia de esa relación en algunos desafíos médicos—como, por ejemplo, lesiones traumáticas en el cerebro, cáncer, la enfermedad del Alzheimer—un puente que relacione las propiedades electrofisiológicas-químicas y mecánicas desde la escala molecular al nivel celular todavía no existe. Con ese objetivo, esta investigación propone un marco computacional multiescala particularizado para dos escenarios respresentativos: el crecimiento del axón y el acomplamiento electrofisiológicomecánico de las neuritas. En el primer caso, se explora la relación entre los constituyentes moleculares del axón durante su crecimiento y sus propiedades mecánicas resultantes, mientras que en el último, un estímulo mecánico provoca deficiencias funcionales a nivel celular como consecuencia de sus alteraciones electrofisiológicas-químicas. La modelización computacional empleada en este trabajo es el método de las diferencias finitas, y es implementada en un nuevo programa llamado Neurite. Aunque el método de los elementos finitos es también explorado en parte de esta investigación, el método de las diferencias finitas tiene la flexibilidad y versatilidad necesaria para implementar mode los biológicos, así como la simplicidad matemática para extenderlos a simulaciones a gran escala con un coste computacional bajo. Centrándose primero en el efecto de las propiedades electrofisiológicas-químicas sobre las propiedades mecánicas, una versión adaptada de Neurite es desarrollada para simular la polimerización de los microtúbulos en el crecimiento del axón y proporcionar las propiedades mecánicas como función de la ocupación de los microtúbulos. Después de calibrar el modelo de crecimiento del axón frente a resultados experimentales disponibles en la literatura, las características mecánicas pueden ser evaluadas durante la simulación. Las propiedades mecánicas del axón muestran variaciones dramáticas en la punta de éste, donde el cono de crecimiento soporta las señales químicas y mecánicas. Bansándose en el conocimiento ganado con el modelo de diferencias finitas, y con el objetivo de ir de 1D a 3D, este esquema preliminar pero de una naturaleza innovadora allana el camino a futuros estudios con el método de los elementos finitos. Centrándose finalmente en el efecto de las propiedades mecánicas sobre las propiedades electrofisiológicas- químicas, Neurite es empleado para relacionar las cargas mecánicas macroscópicas con las deformaciones y velocidades de deformación a escala microscópica, y simular la propagación de la señal eléctrica en las neuritas bajo carga mecánica. Las simulaciones fueron calibradas con resultados experimentales publicados en la literatura, proporcionando, por tanto, un modelo capaz de predecir las alteraciones de las funciones electrofisiológicas neuronales bajo cargas externas dañinas, y uniendo lesiones mecánicas con las correspondientes deficiencias funcionales. Para abordar simulaciones a gran escala, aunque otras arquitecturas avanzadas basadas en muchos núcleos integrados (MICs) fueron consideradas, los solvers explícito e implícito se implementaron en unidades de procesamiento central (CPU) y unidades de procesamiento gráfico (GPUs). Estudios de escalabilidad fueron llevados acabo para ambas implementaciones mostrando resultados prometedores para casos de simulaciones extremadamente grandes con GPUs. Esta tesis abre la vía para futuros modelos mecánicos con el objetivo de unir las propiedades electrofisiológicas-químicas con las propiedades mecánicas. El objetivo general es mejorar el conocimiento de las comunidades médicas y de bioingeniería sobre la mecánica de las neuronas y las deficiencias funcionales que aparecen de los daños producidos por traumatismos mecánicos, como lesiones traumáticas en el cerebro, o enfermedades neurodegenerativas como la enfermedad del Alzheimer. ABSTRACT Sitting at the interface between Engineering, Computer Science and Biology, Computational Neuron Mechanics appears as a new interdisciplinary field potentially able to tackle clinical problems from a new perspective. This field is multiscale by nature, ranging from the nanoscale (e.g., tubulin dimers) to the macroscale (e.g., brain tissue), and aims at tackling problems that are complex, and sometime impossible, to study through experimental means. Computational modeling has been widely used in different Neuroscience applications as diverse as neuronal growth or compound action potential propagation. However, in the majority of the modeling approaches done in this field to date, the interactions between the cell and its surrounding media/stimulus have been rarely explored. Despite of the tremendous importance of such relationship in several medical challenges—e.g., traumatic brain injury (TBI), cancer, Alzheimer’s disease (AD)—a bridge between electrophysiological-chemical and mechanical properties of neurons from the molecular scale to the cell level is still lacking. To this end, this research proposes a multiscale computational framework particularized for two representative scenarios: axon growth and electrophysiological-mechanical coupling of neurites. In the former case, the relation between the molecular constituents of the axon during its growth and its resulting mechanical properties is explored, whereas in the latter, a mechanical stimulus provokes functional deficits at cell level as a consequence of its electrophysiological-chemical alterations. The computational modeling approach chosen in this work is the finite difference method (FDM), and was implemented in a new program called Neurite. Although the finite element method (FEM) is also explored as part of this research, the FDM provides the necessary flexibility and versatility to implement biological models, as well as the mathematical simplicity to extend them to large scale simulations with a low computational cost. Focusing first on the effect of electrophysiological-chemical properties on the mechanical proper ties, an adaptation of Neurite was developed to simulate microtubule polymerization in axonal growth and provide the axon mechanical properties as a function of microtubule occupancy. After calibrating the axon growth model against experimental results available in the literature, the mechanical characteristics can be tracked during the simulation. The axon mechanical properties show dramatic variations at the tip of the axon, where the growth cone supports the chemical and mechanical signaling. Based on the knowledge gained from the FDM scheme, and in order to go from 1D to 3D, this preliminary yet novel scheme paves the road for future studies with FEM. Focusing then on the effect of mechanical properties on the electrophysiological-chemical properties, Neurite was used to relate macroscopic mechanical loading to microscopic strains and strain rates, and simulate the electrical signal propagation along neurites under mechanical loading. The simulations were calibrated against experimental results published in the literature, thus providing a model able to predict the alteration of neuronal electrophysiological function under external damaging load, and linking mechanical injuries to subsequent acute functional deficits. To undertake large scale simulations, although other state-of-the-art architectures based on many integrated cores (MICs) were considered, the explicit and implicit solvers were implemented for central processing units (CPUs) and graphics processing units (GPUs). Scalability studies were done for both implementations showing promising results for extremely large scale simulations with GPUs. This thesis opens the avenue for future mechanical modeling approaches aimed at linking electrophysiological- chemical properties to mechanical properties. Its overarching goal is to enhance the bioengineering and medical communities knowledge on neuronal mechanics and functional deficits arising from damages produced by direct mechanical insults, such as TBI, or neurodegenerative evolving illness, such as AD.
Resumo:
Resumen: Dostoevskij atribuye a la belleza una función salvífica (“la belleza salvará al mundo”), poniéndola así en relación con el campo afectivo, salvación significa en efecto vida plena; para Matisse “Todo arte digno de tal nombre es religioso”, es decir, posee una función de “mediación-unión” entre órdenes diversos. La noción de “visión interior”, es la que mejor fundamenta estas convicciones. Ella atraviesa el tiempo y el espacio: está presente en la antigua cultura china, así como en la Grecia clásica y en la Antigüedad Tardía y permanece implícita durante todo el Medioevo; se la vuelve a encontrar en alguno de los máximos pintores modernos (Kandinsky, Chagal). Todos los testimonios de los artistas concuerdan en indicar que para alcanzarla es necesario una especie de ascesis: ésta consiste en una revelación, experimentada como un don, del Sentido oculto en lo sensible; por el hecho de dar inicio al pasaje de un nivel ontológico a otro (valencia re-ligiosa o syn-bolica) y de consistir en una experiencia de plenitud de vida, le pertenece además un efecto transformante (valencia afectiva). Esta vía propiamente humana de la “visión interior”, por la cual la apariencia (lo sensible) se vuelve trans-parencia de lo invisible, se presenta como la más adecuada al arte cristiano para el culto.
Resumo:
Con el fin de determinar el nivel optimo de estiércol seco de pollo (E.S.P.) en la ración para pollos asaderos, se realizo un experimento en la Escuela Nacional de Agricultura y Ganadería en Managua. Se utilizaron 80 pollos Vantres Cross divididos en 5 tratamientos, con el objeto de comparar una ración testigo ("A") contra la misma ración en la cual se incluyo los siguientes porcentajes de E.S.P.: 4,5 ("B"); 9.0 ("C"); 13.5 ("D") y 18.0 ("E"). Al finalizar el ensayo todos los datos obtenidos se sometieron a análisis estadísticos. La ganancia de peso vivo de 9,77 kilogramos obtenida por los pollos en el tratamiento "C" fue similar al testigo "A" y al tratamiento "B", pero diferentemente significativo P(.01) con la lograda por los tratamientos "D" (8,23 kgs.) y "E" (7,74 kgs.). No se encontró diferencias significativas entre las eficiencias de conversión de 2,72; 2,79 y 2,80 obtenidas por los tratamientos "A", "B" y "C", pero si las hubo al comparar estas, contra las de 3,12 y 3,46 mostrada en los tratamientos "D" y "E", respectivamente. El tratamiento "C" con 9,0 por ciento de E.S.P. resulto ser el nivel mas económico, revelando un costo unitario de C$4,47 por kilogramo de pollo producido. La diferencia de C$0.29 de este tratamiento con respecto al testigo fue significativa P(.01). Se desarrollo una función de costo promedio Y=4,74936-0,07392X-0,00528X2; obtenidos por mínimos cuadrados y se determino el costo mínimo teórico, (siete por ciento de E.S.P. en la ración), con el cual se podría obtener el maximo beneficio. El rendimiento en canal de 7,81 kilogramos obtenido por los pollos en el tratamiento "A" (testigo) fue significativo P(.05) cuando se comparo con el de 6,75 kilogramo logradas en el tratamiento "E". No se encontró diferencia significativa entre los tratamientos "A" (testigo), "B" y "C".
Resumo:
785p. -- De forma paralela al proceso de investigación para esta Tesis el investigador llevó a cabo un documental de 80 minutos de duración, titulado "Oteiza y el Centro Cultural Alhóndiga. Proyecto estético para Bilbao". Este documental está elaborado a partir de las entrevistas arriba señaladas, así como de material audiovisual inédito sobre este proyecto. El documental está expuesto de forma permanente en el Museo Jorge Oteiza (Alzuza, Navarra)
Resumo:
[ES] Este trabajo aporta un análisis econométrico sencillo de la equivalencia ricardiana para los Estados Unidos de América durante el periodo 1929-2013. Se estima una función de consumo para los individuos del país para a continuación contrastar tres diferentes especificaciones del consumo basadas en la teoría keynesiana y en la equivalencia ricardiana. Se obtiene que todas las especificaciones se rechazan, lo que lleva a sugerir que es un término medio entre las dos teorías lo que mejor refleja el efecto que tiene la deuda pública sobre el consumo en los Estados Unidos. Este trabajo también pretende hacer una exposición sencilla de las bases de la equivalencia ricardiana.
Resumo:
La productividad forrajera (PF) es una variable crítica para el manejo y la planificación de los sistemas de producción ganaderos. Sin embargo, las dificultades para cuantificarla a campo y la necesidad de manejar un marco conceptual robusto para utilizarla en la toma de decisiones hacen que habitualmente los sistemas de producción se manejen con una caracterización rudimentaria de esta variable. En esta tesis se desarrolló un sistema de seguimiento de la PF en tiempo real y a la escala de lote, basado en la lógica de la eficiencia en el uso de la radiación (EUR). Primero se diseñó y se puso en funcionamiento una versión preliminar del sistema, y luego se investigaron en mayor detalle dos aspectos críticos de su funcionamiento: la estimación de la fracción de radiación absorbida por el canopeo (fRFAA) a partir de índices de vegetación derivados de imágenes satelitales, y el comportamiento de la EUR ante variaciones del estrés ambiental, el manejo de la defoliación, y la escala temporal de observación. La metodología para implementar la versión preliminar del sistema de seguimiento forrajero se basó en estimar la fRFAA y la EUR. La primera fue estimada como una función no lineal del índice de vegetación normalizado del sensor MODIS. La estimación de la EUR se basó en calibraciones empíricas entre la PF estimada a campo y la radiación absorbida para dos recursos forrajeros: pasturas de loma y bajos de agropiro. Los resultados mostraron que la radiación absorbida predijo datos independientes de PF con precisión aceptable. El sistema fue implementado informáticamente en un software específico denominado Segf. En relación al primer aspecto de mejora del sistema, la estimación de la fRFAA, se estudió la absorción de radiación a campo con una barra de interceptación en cultivos de trigo (utilizados como modelo experimental) y se la correlacionó con distintos índices de vegetación calculados a partir del sensor espectral MODIS. Se encontró que los índices de vegetación explicaron entre 90 y 94 por ciento de las variaciones de fRFAA. El índice de vegetación mejorado presentó una relación más lineal que el clásico índice de vegetación normalizado, posiblemente debido a la ausencia de saturación del primero ante aumentos del área foliar. En relación al segundo aspecto de mejora del sistema, la variabilidad de la EUR, se realizó un experimento de un año sobre una pastura consociada de festuca y alfalfa sometida a distintos tratamientos. La EUR fue más estable que la fRFAA ante cambios de la disponibilidad de recursos y de intensidad de defoliación. Sin embargo, la EUR tendió a disminuir ante estrés hídrico (déficit y exceso), y a aumentar ante defoliación severa y sombreado. Además, la variabilidad de la EUR a lo largo del rebrote de la pastura y entre tratamientos dependió de la escala temporal de observación o cálculo: fue más variable al considerar períodos de 12 días que al considerar todo el período de rebrote o la estación (45 y 90 días respectivamente). Como resultado de la tesis, los productores agropecuarios y sus asesores cuentan con un sistema capaz de estimar mes a mes la PF de sus lotes para una serie temporal de aproximadamente diez años. Actualmente 1.478.000 ha ganaderas están bajo seguimiento mediante un sistema basado en esta tesis. Esto implica un cambio cualitativo de disponibilidad de información y representa una oportunidad para tomar mejores decisiones de manejo, a la vez que concientiza sobre el uso racional del forraje para maximizar su crecimiento. Adicionalmente, la base de datos de PF generada, extraordinariamente amplia en su cobertura espacial y temporal, será de utilidad para trabajos de investigación sobre los patrones espacio-temporales de PF.
Resumo:
La productividad forrajera (PF)es una variable crítica para el manejo y la planificación de los sistemas de producción ganaderos. Sin embargo, las dificultades para cuantificarla a campo y la necesidad de manejar un marco conceptual robusto para utilizarla en la toma de decisiones hacen que habitualmente los sistemas de producción se manejen con una caracterización rudimentaria de esta variable. En esta tesis se desarrolló un sistema de seguimiento de la PF en tiempo real y a la escala de lote, basado en la lógica de la eficiencia en el uso de la radiación (EUR). Primero se diseñó y se puso en funcionamiento una versión preliminar del sistema, y luego se investigaron en mayor detalle dos aspectos críticos de su funcionamiento: la estimación de la fracción de radiación absorbida por el canopeo (fRFAA)a partir de índices de vegetación derivados de imágenes satelitales, y el comportamiento de la EUR ante variaciones del estrés ambiental, el manejo de la defoliación, y la escala temporal de observación. La metodología para implementar la versión preliminar del sistema de seguimiento forrajero se basó en estimar la fRFAA y la EUR. La primera fue estimada como una función no lineal del índice de vegetación normalizado del sensor MODIS. La estimación de la EUR se basó en calibraciones empíricas entre la PF estimada a campo y la radiación absorbida para dos recursos forrajeros: pasturas de loma y bajos de agropiro. Los resultados mostraron que la radiación absorbida predijo datos independientes de PF con precisión aceptable. El sistema fue implementado informáticamente en un software específico denominado Segf. En relación al primer aspecto de mejora del sistema, la estimación de la fRFAA, se estudió la absorción de radiación a campo con una barra de interceptación en cultivos de trigo (utilizados como modelo experimental)y se la correlacionó con distintos índices de vegetación calculados a partir del sensor espectral MODIS. Se encontró que los índices de vegetación explicaron entre 90 y 94 por ciento de las variaciones de fRFAA. El índice de vegetación mejorado presentó una relación más lineal que el clásico índice de vegetación normalizado, posiblemente debido a la ausencia de saturación del primero ante aumentos del área foliar. En relación al segundo aspecto de mejora del sistema, la variabilidad de la EUR, se realizó un experimento de un año sobre una pastura consociada de festuca y alfalfa sometida a distintos tratamientos. La EUR fue más estable que la fRFAA ante cambios de la disponibilidad de recursos y de intensidad de defoliación. Sin embargo, la EUR tendió a disminuir ante estrés hídrico (déficit y exceso), y a aumentar ante defoliación severa y sombreado. Además, la variabilidad de la EUR a lo largo del rebrote de la pastura y entre tratamientos dependió de la escala temporal de observación o cálculo: fue más variable al considerar períodos de 12 días que al considerar todo el período de rebrote o la estación (45 y 90 días respectivamente). Como resultado de la tesis, los productores agropecuarios y sus asesores cuentan con un sistema capaz de estimar mes a mes la PF de sus lotes para una serie temporal de aproximadamente diez años. Actualmente 1.478.000 ha ganaderas están bajo seguimiento mediante un sistema basado en esta tesis. Esto implica un cambio cualitativo de disponibilidad de información y representa una oportunidad para tomar mejores decisiones de manejo, a la vez que concientiza sobre el uso racional del forraje para maximizar su crecimiento. Adicionalmente, la base de datos de PF generada, extraordinariamente amplia en su cobertura espacial y temporal, será de utilidad para trabajos de investigación sobre los patrones espacio-temporales de PF.
Una propuesta para la aproximación intuitiva de funciones por polinomios en la ESO y el bachillerato
Resumo:
Se extiende el concepto de aproximación de un número real al de aproximación de una función. En la primera fase, a partir de la suma de una progresión geométrica, se obtienen casos particulares de funciones polinómicas que aproximan un tipo concreto de funciones racionales. En la segunda fase se encuentran funciones polinómicas que aproximan cualquier función continua. El profesor utiliza la historia de las Matemáticas como recurso didáctico haciendo comentarios que recuerdan la evolución histórica de la aproximación de funciones en series de potencias. Este recorrido es el mismo que van a seguir los alumnos.