1000 resultados para Problemas de generalización lineal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ofrecer una visión general y generalizada de la situación del bilingüismo. Estudio acerca del fenómeno del bilingüismo, que cada vez está cobrando más importancia entre los estudios del lenguaje, la sociedad, la psicología y la educación. Este trabajo no pretende ser más que una recopilación de la panorámica general acerca de los estudios y experiencias llevadas a cabo acerca de este tema. Por todo ello, lo principal es unificar los diferentes puntos de vista acerca del bilingüismo para extraer nuestro propio criterio común, con el fin de que todos entendamos lo mismo al enunciar cada término; creando así un mismo lenguaje para la elaboración de este trabajo. 1) El verdadero bilingüe es el que crece, desde su primera infancia, en dos ambientes lingüística y culturalmente distintos. 2) El aprendizaje lingüístico tiene lugar, en situaciones globales de comunicación y de vida. Cuando éstas no se dan de forma natural, será necesario crearlas. 3) El bilingüismo, como cualquier otro sistema de comportamiento, es el resultado de la interacción entre hablantes en situaciones concretas de comunicación. Presenta una estructuración peculiar de la personalidad bajo su aspecto expresivo-comunicativo. 4) El primer problema planteado por el bilingüismo se halla en su concepto de base. No es posible definir qué es exactamente el bilingüismo, puesto que engloba características y circunstancias especiales y concretas. 5) Los posibles trastornos en la personalidad provocados por el bilingüismo, se deben a factores externos, de rechazo o segregación de minorías lingüísticas, que provocan: baja autoestima, timidez, inseguridad,... Este es el caso de los inmigrantes, que abandonan su propia lengua y cultura, para elevar su status económico y evitar la marginación en sus hijos. 6) La solución escolar más aceptada y estudiada es la desarrollada por Lambert a través de programas de inmersión. Para la generalización de un programa de éstos en una sociedad consciente de si bilingüismo, debe darse prioridad en los inicios de la escolaridad a la lengua o lenguas que tienen menos probabilidades de desarrollarse. 7) Para que la adquisición precoz de una segunda lengua sea eficaz debe seguir un proceso natural, como el que cada niño sigue para alcanzar su lengua materna, y acomodable a la situación escolar. Este proceso natural se basa en la imitación y en una motivación fundamentalmente afectiva. Por esto, los niños emigrados aprenden rápidamente la nueva lengua, por la necesidad de comunicarse y jugar con el resto de los niños. 8) España es un país multilingüe desde antiguo, que esta reivindicando ahora su reconocimiento. Con este motivo el estado español ha traspasado la competencia en materia lingüística y educativa a cada región autonómica. A raíz de esto cada comunidad ha decretado su Ley de Normalización Lingüística. Pero como hemos dicho que el bilingüismo depende de cada situación, esta Normalización, lejos de ser tal, provoca nuevos y graves problemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se presenta una formulación que permite aplicar los métodos de programación lineal, y en particular el método simplex, al análisis de la estática de rotura de cualesquiera estructuras de barras o elementos lineales, que son considerados como bloques rígidos en las regiones no plastificadas. La formulación permite integrar criterios robustos de seguridad y permite abordar, entre otros, los problemas clásicos de rotura de arcos de fábrica, siendo capaz de determinar las alteraciones pésimas a las configuraciones de carga consideradas, basándose en dichos criterios. Como ejemplo se muestra cómo la formulación es capaz de detectar de forma automática que se producirán daños en arcos de fábrica si se procede a su descarga

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los terremotos constituyen una de las más importantes fuentes productoras de cargas dinámicas que actúan sobre las estructuras y sus cimentaciones. Cuando se produce un terremoto la energía liberada genera movimientos del terreno en forma de ondas sísmicas que pueden provocar asientos en las cimentaciones de los edificios, empujes sobre los muros de contención, vuelco de las estructuras y el suelo puede licuar perdiendo su capacidad de soporte. Los efectos de los terremotos en estructuras constituyen unos de los aspectos que involucran por su condición de interacción sueloestructura, disciplinas diversas como el Análisis Estructural, la Mecánica de Suelo y la Ingeniería Sísmica. Uno de los aspectos que han sido poco estudiados en el cálculo de estructuras sometidas a la acciones de los terremotos son los efectos del comportamiento no lineal del suelo y de los movimientos que pueden producirse bajo la acción de cargas sísmicas, tales como posibles despegues y deslizamientos. En esta Tesis se estudian primero los empujes sísmicos y posibles deslizamientos de muros de contención y se comparan las predicciones de distintos tipos de cálculos: métodos pseudo-estáticos como el de Mononobe-Okabe (1929) con la contribución de Whitman-Liao (1985), y formulaciones analíticas como la desarrollada por Veletsos y Younan (1994). En segundo lugar se estudia el efecto del comportamiento no lineal del terreno en las rigideces de una losa de cimentación superficial y circular, como la correspondiente a la chimenea de una Central Térmica o al edificio del reactor de una Central Nuclear, considerando su variación con frecuencia y con el nivel de cargas. Finalmente se estudian los posibles deslizamientos y separación de las losas de estas dos estructuras bajo la acción de terremotos, siguiendo la formulación propuesta por Wolf (1988). Para estos estudios se han desarrollado una serie de programas específicos (MUROSIS, VELETSOS, INTESES y SEPARSE) cuyos listados y detalles se incluyen en los Apéndices. En el capítulo 6 se incluyen las conclusiones resultantes de estos estudios y recomendaciones para futuras investigaciones. ABSTRACT Earthquakes constitute one of the most important sources of dynamic loads that acting on structures and foundations. When an earthquake occurs the liberated energy generates seismic waves that can give rise to structural vibrations, settlements of the foundations of buildings, pressures on retaining walls, and possible sliding, uplifting or even overturning of structures. The soil can also liquefy losing its capacity of support The study of the effects of earthquakes on structures involve the use of diverse disciplines such as Structural Analysis, Soil Mechanics and Earthquake Engineering. Some aspects that have been the subject of limited research in relation to the behavior of structures subjected to earthquakes are the effects of nonlinear soil behavior and geometric nonlinearities such as sliding and uplifting of foundations. This Thesis starts with the study of the seismic pressures and potential displacements of retaining walls comparing the predictions of two types of formulations and assessing their range of applicability and limitations: pseudo-static methods as proposed by Mononobe-Okabe (1929), with the contribution of Whitman-Liao (1985), and analytical formulations as the one developed by Veletsos and Younan (1994) for rigid walls. The Thesis deals next with the effects of nonlinear soil behavior on the dynamic stiffness of circular mat foundations like the chimney of a Thermal Power Station or the reactor building of a Nuclear Power Plant, as a function of frequency and level of forces. Finally the seismic response of these two structures accounting for the potential sliding and uplifting of the foundation under a given earthquake are studied, following an approach suggested by Wolf (1988). In order to carry out these studies a number of special purposes computer programs were developed (MUROSIS, VELETSOS, INTESES and SEPARSE). The listing and details of these programs are included in the appendices. The conclusions derived from these studies and recommendations for future work are presented in Chapter 6.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dos aspectos destacan entre los resultados más interesantes de la investigación en la década de los 90 en el campo de la ingeniería del conocimiento. Por un lado, se ha profundizado en el conocimiento sobre cómo las personas resuelven problemas. Esto se ha logrado por la vía empírica mediante un trabajo científico de observación, experimentación por medios computacionales y generalización. Como resultado de esta línea, actualmente se dispone de un primer conjunto de modelos formales, los llamados problem-solving methods (PSM), muy útiles en el campo de la ingeniería informática como plantillas de diseño que guían la construcción de nuevos sistemas. Por otro lado, como logro adicional en este campo de investigación, se ha creado un nuevo lenguaje descriptivo como complemento a las formas de representación tradicionales. Dicho lenguaje, que ha sido aceptado por un amplio número de autores, se sitúa en un mayor nivel de abstracción y permite la formulación de arquitecturas más complejas de sistemas basados en el conocimiento. Como autores que más han contribuido en este aspecto se pueden citar: Luc Steels que propuso los denominados componentes de la experiencia como forma de unificación de trabajos previos en este campo, Bob Wielinga, Guus Schreiber y Jost Breuker en el campo de metodologías de ingeniería del conocimiento y el equipo de Mark Musen respecto a herramientas. Dicho lenguaje descriptivo ha supuesto además el planteamiento de una nueva generación de herramientas software de ayuda a los técnicos desarrolladores para construcción de este tipo de sistemas. El propósito principal del presente texto es servir de base como fuente de información de ambos aspectos recientes del campo de la ingeniería del conocimiento. El texto está dirigido a profesionales y estudiantes del campo de la informática que conocen técnicas básicas tradicionales de representación del conocimiento. La redacción del presente texto se ha orientado en primer lugar para recopilar y uniformizar la descripción de métodos existentes en la literatura de ingeniería de conocimiento. Se ha elegido un conjunto de métodos representativo en este campo que no cubre la totalidad de los métodos existentes pero sí los más conocidos y utilizados en ingeniería del conocimiento, presentando una descripción detallada de carácter tanto teórico como práctico. El texto describe cada método utilizando una notación común a todos ellos, parcialmente basada en los estándares descriptivos seguidos por las metodologías más extendidas. Para cada método se incluyen algoritmos definidos de forma expresa para el presente texto con ejemplos detallados de operación. Ambos aspectos, la uniformización junto a la presentación detallada de la operación, suponen una novedad interesante respecto al estado actual de la literatura sobre este campo, lo que hace el texto muy adecuado para ser utilizado como libro de consulta como apoyo en la docencia de la asignatura de construcción de sistemas inteligentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se presenta un estudio de algoritmos que ofrecen resultados óptimos en cuanto a lo que a la generalización vectorial de entidades lineales se refiere. Este estudio se encuentra dentro del marco del proyecto CENIT España Virtual para la investigación de nuevos algoritmos de procesado cartográfico. La generalización constituye uno de los procesos cartográficos más complejos, cobrando su mayor importancia a la hora de confeccionar mapas derivados a partir de otros a mayores escalas. La necesidad de una generalización se hace patente ante la imposibilidad de representar la realidad en su totalidad, teniendo ésta que ser limitada o reducida para la posterior elaboración del mapa, manteniendo, eso sí, las características esenciales del espacio geográfico cartografiado. La finalidad, por tanto, es obtener una imagen simplificada pero representativa de la realidad. Debido a que casi el ochenta por ciento de la cartografía vectorial está compuesta por elementos lineales, la investigación se centra en aquellos algoritmos capaces de procesar y actuar sobre éstos, demostrando además que su aplicación puede extenderse al tratamiento de elementos superficiales ya que son tratados a partir de la línea cerrada que los define. El estudio, además, profundiza en los procesos englobados dentro de la exageración lineal que pretenden destacar o enfatizar aquellos rasgos de entidades lineales sin los que la representatividad de nuestro mapa se vería mermada. Estas herramientas, acompañadas de otras más conocidas como la simplificación y el suavizado de líneas, pueden ofrecer resultados satisfactorios dentro de un proceso de generalización. Abstract: A study of algorithms that provide optimal results in vector generalization is presented. This study is within the CENIT project framework of the España Virtual for research of new cartographic processing algorithms. The generalization is one of the more complex mapping processes, taking its greatest importance when preparing maps derived from other at larger scales. The need for generalization is evident given the impossibility of representing whole real world, taking it to be limited or reduced for the subsequent preparation of the map, keeping main features of the geographical space. Therefore, the goal is to obtain a simplified but representative image of the reality. Due to nearly eighty percent of the mapping vector is composed of linear elements, the research focuses on those algorithms that can process them, proving that its application can also be extended to the treatment of surface elements as they are treated from the closed line that defines them. Moreover, the study focussed into the processes involved within the linear exaggeration intended to highlight or emphasize those features of linear entities that increase the representativeness of our map. These tools, together with others known as the simplification and smoothing of lines, can provide satisfactory results in a process of generalization.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existe un creciente interés internacional por el ahorro energético y la sostenibilidad en la edificación con importantes repercusiones en la Arquitectura. La inercia térmica es un parámetro fundamental para poder valorar energéticamente un edificio en condiciones reales. Para ello es necesario cambiar el enfoque tradicional de transmisión de calor en régimen estacionario por otro en régimen dinámico en el que se analizan las ondas térmicas y el flujo de calor oscilante que atraviesan los cerramientos. Los parámetros que definen la inercia térmica son: el espesor, la difusividad y el ciclo térmico. A su vez la difusividad está determinada por la conductividad térmica, la densidad y el calor específico del material. De estos parámetros la conductividad es el más complejo, variable y difícil de medir, especialmente en los cerramientos de tierra debido a su heterogeneidad y complejidad higrotérmica. En general, los métodos de medida de la conductividad o transmitancias en los paramentos presentan inconvenientes a la hora de medir un edificio construido con tierra: dificultades de implementación, el elevado coste o la fiabilidad de los resultados, principalmente. El Método de la Aguja Térmica (MAT) se basa en el principio de la evolución en el tiempo del calor emitido por una fuente lineal al insertarse en el seno de un material. Se ha escogido este método porque resulta práctico, de bajo coste y de fácil aplicación a gran escala pero tiene serios problemas de fiabilidad y exactitud. En esta tesis se desarrolla un método de medida de la conductividad térmica para Piezas de Albañilería de Tierra Cruda en laboratorio basado en el MAT, se mejora su fiabilidad, se analiza su incertidumbre, se compara con otros métodos de referencia y se aplica en adobes, Bloques de Tierra Comprimida y probetas de tierra estabilizada con distintas proporciones de paja. Este método servirá de base a una posterior aplicación in situ. Finalmente se proponen modelos matemáticos para mejorar la exactitud del dispositivo utilizado y para la estimación de la conductividad de cerramientos de tierra en función de su densidad. Con los resultados obtenidos se analizan las posibilidades de amortiguación y retardo de las ondas térmicas y capacidad de almacenaje de energía de los cerramientos en función de su densidad y humedad. There is growing international interest in energy saving and sustainability in buildings with significant impact on Architecture. Thermal inertia is a key parameter to assess energy in buildings in real conditions. This requires changing the traditional approach to heat transfer in steady state by another in dynamic regime which analyzes the thermal waves and oscillating heat flux passing through the external walls. The parameters defining the thermal inertia are: the thickness, the diffusivity and the thermal cycle. In turn, the diffusivity is determined by the thermal conductivity, density and specific heat of the material. Of these parameters, thermal conductivity is the most complex, variable and difficult to measure, especially in earth walls due to their heterogeneity and hygrothermal complexity. In general, the methods of measurement of conductivity and transmittance in walls have drawbacks when measuring a building with earth: implementation difficulties, high cost, or reliability of the results, mainly. The Thermal Needle Procedure (TNP) is based on the principle of evolution in time of heat from a line source when inserted within a material. This method was chosen because it is a practical, low cost and easy to implement on a large scale but has serious problems of reliability and accuracy. This thesis develops a laboratory method for measuring the thermal conductivity of Masonry Units Unfire Earth-based based on TNP, its uncertainty is analyzed, compared to other reference methods and applies in adobes, Compressed Earth Blocks and stabilized soil specimens with different proportions of straw. This method will form the basis of a subsequent application in situ. Finally, mathematical models are proposed to improve the accuracy of the device used, and to estimate the conductivity of earth enclosures depending on its density. With the results obtained earth enclosures are analyzed to estimate their possibilities of delay and buffer of termal waves and energy storage capacity according to their density and moisture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El frente de un túnel puede colapsar si la presión aplicada sobre el es inferior a un valor limite denominado presión “critica” o “de colapso”. En este trabajo se desarrolla y presenta un mecanismo de rotura rotacional generado punto a punto para el cálculo de la presión de colapso del frente de túneles excavados en terrenos estratificados o en materiales que siguen un criterio de rotura nolineal. La solución propuesta es una solución de contorno superior en el marco del Análisis Límite y supone una generalización del mecanismo de rotura mas reciente existente en la bibliografía. La presencia de un terreno estratificado o con un criterio de rotura no-lineal implica una variabilidad espacial de las propiedades resistentes. Debido a esto, se generaliza el mecanismo desarrollado por Mollon et al. (2011b) para suelos, de tal forma que se puedan considerar valores locales del ángulo de rozamiento y de la cohesión. Además, la estratificación del terreno permite una rotura parcial del frente, por lo que se implementa esta posibilidad en el mecanismo, siendo la primera solución que emplea un mecanismo de rotura que se ajusta a la estratigrafía del terreno. Por otro lado, la presencia de un material con un criterio de rotura no-lineal exige introducir en el modelo, como variable de estudio, el estado tensional en el frente, el cual se somete al mismo proceso de optimización que las variables geométricas del mecanismo. Se emplea un modelo numérico 3D para validar las predicciones del mecanismo de Análisis Limite, demostrando que proporciona, con un esfuerzo computacional significativamente reducido, buenas predicciones de la presión critica, del tipo de rotura (global o parcial) en terrenos estratificados y de la geometría de fallo. El mecanismo validado se utiliza para realizar diferentes estudios paramétricos sobre la influencia de la estratigrafía en la presión de colapso. Igualmente, se emplea para elaborar cuadros de diseño de la presión de colapso para túneles ejecutados con tuneladora en macizos rocosos de mala calidad y para analizar la influencia en la estabilidad del frente del método constructivo. Asimismo, se lleva a cabo un estudio de fiabilidad de la estabilidad del frente de un túnel excavado en un macizo rocoso altamente fracturado. A partir de el se analiza como afectan las diferentes hipótesis acerca de los tipos de distribución y de las estructuras de correlación a los resultados de fiabilidad. Se investiga también la sensibilidad de los índices de fiabilidad a los cambios en las variables aleatorias, identificando las mas relevantes para el diseño. Por ultimo, se lleva a cabo un estudio experimental mediante un modelo de laboratorio a escala reducida. El modelo representa medio túnel, lo cual permite registrar el movimiento del material mediante una técnica de correlación de imágenes fotográficas. El ensayo se realiza con una arena seca y se controla por deformaciones mediante un pistón que simula el frente. Los resultados obtenidos se comparan con las estimaciones de la solución de Análisis Límite, obteniéndose un ajuste razonable, de acuerdo a la literatura, tanto en la geometría de rotura como en la presión de colapso. A tunnel face may collapse if the applied support pressure is lower than a limit value called the ‘critical’ or ‘collapse’ pressure. In this work, an advanced rotational failure mechanism generated ‘‘point-by-point” is developed to compute the collapse pressure for tunnel faces in layered (or stratified) grounds or in materials that follow a non-linear failure criterion. The proposed solution is an upper bound solution in the framework of limit analysis which extends the most advanced face failure mechanism in the literature. The excavation of the tunnel in a layered ground or in materials with a non-linear failure criterion may lead to a spatial variability of the strength properties. Because of this, the rotational mechanism recently proposed by Mollon et al. (2011b) for Mohr-Coulomb soils is generalized so that it can consider local values of the friction angle and of the cohesion. For layered soils, the mechanism needs to be extended to consider the possibility for partial collapse. The proposed methodology is the first solution with a partial collapse mechanism that can fit to the stratification. Similarly, the use of a nonlinear failure criterion introduces the need to introduce new parameters in the optimization problem to consider the distribution of normal stresses along the failure surface. A 3D numerical model is employed to validate the predictions of the limit analysis mechanism, demonstrating that it provides, with a significantly reduced computational effort, good predictions of critical pressure, of the type of collapse (global or partial) in layered soils, and of its geometry. The mechanism is then employed to conduct parametric studies of the influence of several geometrical and mechanical parameters on face stability of tunnels in layered soils. Similarly, the methodology has been further employed to develop simple design charts that provide the face collapse pressure of tunnels driven by TBM in low quality rock masses and to study the influence of the construction method. Finally, a reliability analysis of the stability of a tunnel face driven in a highly fractured rock mass is performed. The objective is to analyze how different assumptions about distributions types and correlation structures affect the reliability results. In addition, the sensitivity of the reliability index to changes in the random variables is studied, identifying the most relevant variables for engineering design. Finally, an experimental study is carried out using a small-scale laboratory model. The problem is modeled in half, cutting through the tunnel axis vertically, so that displacements of soil particles can be recorded by a digital image correlation technique. The tests were performed with dry sand and displacements are controlled by a piston that supports the soil. The results of the model are compared with the predictions of the Limit Analysis mechanism. A reasonable agreement, according to literature, is obtained between the shapes of the failure surfaces and between the collapse pressures observed in the model tests and computed with the analytical solution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El hormigón estructural sigue siendo sin duda uno de los materiales más utilizados en construcción debido a su resistencia, rigidez y flexibilidad para diseñar estructuras. El cálculo de estructuras de hormigón, utilizando vigas y vigas-columna, es complejo debido a los fenómenos de acoplamiento entre esfuerzos y al comportamiento no lineal del material. Los modelos más empleados para su análisis son el de Bernoulli-Euler y el de Timoshenko, indicándose en la literatura la conveniencia de usar el segundo cuando la relación canto/luz no es pequeña o los elementos están fuertemente armados. El objetivo fundamental de esta tesis es el análisis de elementos viga y viga-columna en régimen no lineal con deformación por cortante, aplicando el concepto de Pieza Lineal Equivalente (PLE). Concepto éste que consiste básicamente en resolver el problema de una pieza en régimen no lineal, transformándolo en uno lineal equivalente, de modo que ambas piezas tengan la misma deformada y los mismos esfuerzos. Para ello, se hizo en primer lugar un estudio comparado de: las distintas propuestas que aplican la deformación por cortante, de los distintos modelos constitutivos y seccionales del hormigón estructural y de los métodos de cálculo no lineal aplicando el método de elementos finitos (MEF). Teniendo en cuenta que la resolución del problema no lineal se basa en la resolución de sucesivos problemas lineales empleando un proceso de homotopía, los problemas lineales de la viga y viga-columna de Timoshenko, se resuelven mediante MEF, utilizando soluciones nodalmente exactas (SNE) y acción repartida equivalente de cualquier orden. Se obtiene así, con muy pocos elementos finitos, una excelente aproximación de la solución, no sólo en los nodos sino en el interior de los elementos. Se introduce el concepto PLE para el análisis de una barra, de material no lineal, sometida a acciones axiales, y se extiende el mismo para el análisis no lineal de vigas y vigas-columna con deformación por cortante. Cabe señalar que para estos últimos, la solución de una pieza en régimen no lineal es igual a la de una en régimen lineal, cuyas rigideces son constantes a trozos, y donde además hay que añadir momentos y cargas puntuales ficticias en los nodos, así como, un momento distribuido ficticio en toda la pieza. Se han desarrollado dos métodos para el análisis: uno para problemas isostáticos y otro general, aplicable tanto a problemas isostáticos como hiperestáticos. El primero determina de entrada la PLE, realizándose a continuación el cálculo por MEF-SNE de dicha pieza, que ahora está en régimen lineal. El general utiliza una homotopía que transforma de manera iterativa, unas leyes constitutivas lineales en las leyes no lineales del material. Cuando se combina con el MEF, la pieza lineal equivalente y la solución del problema original quedan determinadas al final de todo el proceso. Si bien el método general es un procedimiento próximo al de Newton- Raphson, presenta sobre éste la ventaja de permitir visualizar las deformaciones de la pieza en régimen no lineal, de manera tanto cualitativa como cuantitativa, ya que es posible observar en cada paso del proceso la modificación de rigideces (a flexión y cortante) y asimismo la evolución de las acciones ficticias. Por otra parte, los resultados obtenidos comparados con los publicados en la literatura, indican que el concepto PLE ofrece una forma directa y eficiente para analizar con muy buena precisión los problemas asociados a vigas y vigas-columna en las que por su tipología los efectos del cortante no pueden ser despreciados. ABSTRACT The structural concrete clearly remains the most used material in construction due to its strength, rigidity and structural design flexibility. The calculation of concrete structures using beams and beam-column is complex as consequence of the coupling phenomena between stresses and of its nonlinear behaviour. The models most commonly used for analysis are the Bernoulli-Euler and Timoshenko. The second model is strongly recommended when the relationship thickness/span is not small or in case the elements are heavily reinforced. The main objective of this thesis is to analyse the beam and beam-column elements with shear deformation in nonlinear regime, applying the concept of Equivalent Linear Structural Element (ELSE). This concept is basically to solve the problem of a structural element in nonlinear regime, transforming it into an equivalent linear structural element, so that both elements have the same deformations and the same stresses. Firstly, a comparative study of the various proposals of applying shear deformation, of various constitutive and sectional models of structural concrete, and of the nonlinear calculation methods (using finite element methods) was carried out. Considering that the resolution of nonlinear problem is based on solving the successive linear problem, using homotopy process, the linear problem of Timoshenko beam and beam-columns is resolved by FEM, using the exact nodal solutions (ENS) and equivalent distributed load of any order. Thus, the accurate solution approximation can be obtained with very few finite elements for not only nodes, but also for inside of elements. The concept ELSE is introduced to analyse a bar of nonlinear material, subjected to axial forces. The same bar is then used for other nonlinear beam and beam-column analysis with shear deformation. It is noted that, for the last analyses, the solution of a structural element in nonlinear regime is equal to that of linear regime, in which the piecewise-stiffness is constant, the moments and fictitious point loads need to be added at nodes of each element, as well as the fictitious distributed moment on element. Two methods have been developed for analysis: one for isostatic problem and other more general, applicable for both isostatic and hiperstatic problem. The first method determines the ELSE, and then the calculation of this piece is performed by FEM-ENS that now is in linear regime. The general method uses the homotopy that transforms iteratively linear constitutive laws into nonlinear laws of material. When combined with FEM, the ELSE and the solution of the original problem are determined at the end of the whole process. The general method is well known as a procedure closed to Newton-Raphson procedure but presents an advantage that allows displaying deformations of the piece in nonlinear regime, in both qualitative and quantitative way. Since it is possible to observe the modification of stiffness (flexural and shear) in each step of process and also the evolution of the fictitious actions. Moreover, the results compared with those published in the literature indicate that the ELSE concept offers a direct and efficient way to analyze with very good accuracy the problems associated with beams and beams columns in which, by typology, the effects of shear cannot be neglected.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este trabajo es caracterizar la flexibilidad, entendida como habilidad para modificar la estrategia de resolución de un problema cuando se modifica la demanda de la tarea, de estudiantes de educación secundaria (12-16 años) en problemas de reconocimiento de patrones con varios apartados. Se utiliza una metodología de tipo cualitativo analizando las respuestas de los estudiantes en base a dos criterios: corrección de las respuestas y estrategias de resolución, y agrupando las que presentan características semejantes. Los resultados indican tres perfiles de estudiantes en relación a la flexibilidad en el uso de estrategias y el éxito alcanzado. El primero agrupa a los estudiantes que usan sólo la estrategia recursiva; la mayor parte de ellos se bloquea al aumentar la demanda cognitiva de la tarea; predominan los estudiantes de 12-13 años. El segundo perfil corresponde a los que cambian de una estrategia recursiva a una aproximación proporcional dando un resultado incorrecto; es más frecuente en los estudiantes de 13-14 años. Finalmente, el tercer perfil agrupa a los estudiantes que al aumentar la demanda cognitiva de la tarea cambian con éxito de una estrategia recursiva a una funcional; su frecuencia aumenta con la edad. Se concluye que la flexibilidad necesaria para identificar patrones cuando se incrementa la demanda de la tarea está relacionada con los conocimientos de los estudiantes y con el control y la regulación del proceso de resolución. Por otra parte, los estudiantes más jóvenes manifestaron menor grado de flexibilidad que los más mayores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta comunicación es caracterizar la mirada profesional de los estudiantes para maestro (EPM) cuando describen e interpretan respuestas de alumnos de Primaria a problemas de identificación de patrones. El estudio conjunto de los grados de evidencia de la identificación de los elementos matemáticos relevantes en el proceso de generalización de patrones y de la interpretación de la comprensión de los estudiantes, nos permitió identificar cinco perfiles de EPM con una gradación entre ellos. Esto nos ha llevado a caracterizar cinco perfiles de EPM que muestran que el conocimiento de matemáticas es necesario pero no suficiente para el desarrollo de una “mirada profesional”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El aprendizaje de las matemáticas no es lineal ni homogéneo. Está claro que durante todo el proceso de aprendizaje de las matemáticas pasamos por una serie de niveles que indican la evolución, el proceso y el conocimiento que tenemos de las mismas. Esta heterogeneidad existente puede deberse a diferentes motivos: por un lado, los trastornos y/o las discapacidades suponen que, en la mayoría de las ocasiones, no se alcance el nivel esperado en cada una de las etapas escolares; por otro lado, en un mismo ciclo, incluso en un mismo grupo de alumnado, existen distintos niveles cognitivos y de desarrollo que dificultan el avance progresivo de los niveles de conocimiento o se consigue este de una forma más pausada a lo largo de toda la etapa escolar; además de tener en cuenta los aspectos de tipo social. Todas estas diferencias entre el alumnado de un mismo nivel se comienzan a percibir a partir del primer ciclo de Educación Primaria con los problemas de estructura aditiva y multiplicativa. Esto se consigue gracias a que estos problemas poseen una amplia variedad de estrategias de resolución, las cuales ofrecen una información muy valiosa sobre el nivel cognitivo y de desarrollo del alumno/a que permite identificar los errores y las dificultades que se tienen a la hora de resolver estos problemas. Es toda esta diversidad de conocimientos, dificultades y estrategias lo que me promueve mi interés y motivación por el tema a tratar y lo que me lleva a adentrarme en un grupo de alumnado para investigar toda esta heterogeneidad existente y poder observar de primera mano si la teoría sobre el tema se confirma o se desmiente en la realidad escolar. Asimismo, analizar si existen otras estrategias de resolución de problemas todavía sin descubrir para los problemas de estructura aditiva y multiplicativa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Explicar el efecto de la resolución de problemas en el AC de DMT2: (alimentación, ejercicio y medicamentos), sobre el control glucémico en función del apoyo social, edad, sexo y años de diagnóstico (factores condicionantes básicos de DMT2). Establecer la validez de la escala de resolución de problemas en el autocuidado (AC) de Diabetes para identificar los factores encontrados en relación a los estilos de resolución de problemas propuestos. Los conceptos y relaciones seleccionadas se derivaron de la Teoría del Déficit de Autocuidado de Orem (TDAC). La muestra fue de 238 adultos, calculada mediante el paquete n´Query Advisor versión 4.0 para un nivel de significancia de .05, una potencia de prueba de 90%, tamaño de efecto de .07 (R2) en el contraste de no significancia del modelo de regresión lineal múltiple con 6 variables independientes. El muestreo fue por conveniencia, se invitó a participar a las personas que acudieron a consulta para control de DMT2 en la Asociación Mexicana de Diabetes de Monterrey Nuevo León. Para medir las variables de interés se utilizaron instrumentos de lápiz y papel y mediciones antropométricas (peso, estatura, circunferencia de cintura) y bioquímicas (A1C a 50 pacientes seleccionados aleatoriamente de la base de datos de la Asociación). Contribuciones y Conclusiones: Del total de la muestra estudiada el 59.7% correspondió a mujeres, el promedio de edad fue de 54.61 años, con 11 años de escolaridad. En promedio tenían 10 años (DE = 1.84; 1-42) de haber sido diagnosticados con DMT2 y habían recibido en promedio 9.7 sesiones de educación sobre su tratamiento en alimentación, ejercicio y medicamentos. Se realizó la adaptación del instrumento para medir resolución de problemas en el cuidado de DMT2, el cual obtuvo confiabilidad aceptable (.84) y validez (3 factores que explicaron el 49% de la varianza total). Los hallazgos sugieren que las habilidades de los pacientes para resolver problemas y realizar las actividades de AC están condicionadas por la edad (β = .16, p ˂ .01) y apoyo social (β = .25, p ˂ .01). Se confirma la proposición teórica de la TGAC de que las habilidades para el AC están condicionadas por la edad. El estilo efectivo mostró asociación con AC en alimentación (rs = .22; p <.01). El estilo evitativo, mostró que a mayor puntaje en este estilo menor AC de alimentación (rs = -.37; p < .01), ejercicio (rs = -.17; p < .01) y medicamentos (rs = -.30; p <. 01). En este estudio no se encontró asociación de la resolución de problemas con HbA1c (rs = -.07; p = .65).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se presentan las experiencias desarrolladas con el objetivo de contribuir a la formación de habilidades para la resolución de problemas en estudiantes de primer año de la carrera de Licenciatura en Matemática. Concretamente, se presenta la propuesta de actividades a desarrollar dentro del contexto de la asignatura “Seminario de Problemas I", con la que se inicia el programa de la disciplina “Práctica Profesional del Matemático”, existente en el plan de estudio de la carrera en las universidades cubanas desde el curso 1990-91 (Plan de Estudio “C” de la carrera de Matemática). Uno de los propósitos del curso es recorrer, a partir de problemas físicos, geométricos, algebraicos, etc., diferentes etapas de la investigación matemática desde la formulación del problema; la obtención del modelo matemático (por ejemplo, determinar las raíces de una ecuación); los métodos de resolución (exactos y aproximados: numéricos y/o analíticos) y su implementación computacional; la utilización de técnicas para verificar la corrección de los resultados obtenidos (compatibilidad con las unidades de magnitud, estudio de casos limite, etc.) y su interpretación. Otro objetivo importante que persigue este curso es contribuir al desarrollo de hábitos de investigación científica mediante la orientación de un trabajo de curso sobre aspectos de la vida y obra de algún matemático. La exposición y defensa de los resultados de sus búsquedas, ante el colectivo de estudiantes, permite desarrollar sus habilidades de expresión oral y su formación cultural en la especialidad.