960 resultados para Análisis matemático-Problemas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Identificar factores y fenómenos didácticos que influyen en una adecuada comprensión, por parte de los estudiantes, de los conceptos fundamentales del Análisis Matemático: límite, continuidad, derivada e integral; el logro de una armonización de la enseñanza, por medio del uso de estrategias de enseñanza-aprendizaje en situaciones didácticas adecuadas, en los cursos que enlazan dos niveles educativos (Bachillerato-Logse y Universidad); análizar epistemológicamente la génesis y evolución histórica de las distintas nociones objeto de estudio; analizar comparativamente libros de texto actuales, según autor y nivel de enseñanza, respecto a los conceptos de límite, continuidad, derivadas e integral; estudiar cualitativa-cuantitativamente la evolución de concepciones y obstáculos de los estudiantes de ambos niveles; realizar un diagnóstico, a la vista de los resultados obtenidos, sobre los contenidos y el tipo de enseñanza a realizar en ambos niveles educativos con objeto de lograr su armonización. Las hipótesis estudiadas fueron: con referencia a las situaciones de enseñanza donde aparecen los conceptos de límite, continuidad, derivada e integral, los libros de texto y los estudiantes muestran unas concepciones que pueden identificarse dentro de las que el estudio histórico determina sobre la noción; en el tratamiento didáctico que se da a estos conceptos en los textos dirigidos al Bachillerato-Logse y al primer curso de Univrisdad, no aparece de modo sistemático una secuenciación adecuada de los pasos necesarios para provocar los actos de comprensión en el estudiante que le permitan superar los obstáculos inherentes al concepto y al proceso de transposición didáctica; los estudiantes del Bachillerato-Logse y de primer curso universitario no muestran una evolución en la compresnión de los conceptos objeto de estudio, en cuanto a la ampliación de sus concepciones y la superación de obstáculos, una vez recibida la instrucción; las respuestas erróneas de los estudiantes no ocurren al azar, sino que están asociadas a los distintos obstáculos inherentes a los conceptos y al proceso de transposición didáctica. 18 alumnos de segundo curso de Bachillerato-Logse del IES Pablo de Olavide, de La Carolina (Jaén); 15 alumnos de primero de IT en Informática de Gestión; 12 libros de texto correspondientes a 1995-2000. El análisis de libros de texto se efectuará desde un punto de vista descriptivo. Se estudiaron variables dependientes, independientes, concomitantes tanto en los libros de texto y apuntes del profesor como en los estudiantes participantes. Los resultados son los siguientes: se han detectado concepciones y obstáculos en la génesis y desarrollo epistemológico de los conceptos del límite, continuidad y derivada de una función que, en general, se corresponden con los mostrados por manuales y alumnos; el análisis de manuales muestra que no se realizan en ellos secuencias de enseñanza capaces de abordar los obstáculos epistemológicos inherentes a los conceptos ni de facilitar la emergencia de actos de comprensión; en la evolución de concepciones y obstáculos en los alumnos participantes en la investigación, después de la enseñanza recibida, se detectan, por medio de un cuestionario construido para esta investigación, errores que no ocurren al azar, sino que están asociados a los distintos obstáculos inherentes a los conceptos y al proceso de transposición didáctica; según los resultados anteriores se muestran orientaciones didácticas dirigidas a la enseñanza de los conceptos de límite, continuidad y derivada de una función.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Incluye Bibliografía

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesis Doctoral aborda la aplicación de métodos meshless, o métodos sin malla, a problemas de autovalores, fundamentalmente vibraciones libres y pandeo. En particular, el estudio se centra en aspectos tales como los procedimientos para la resolución numérica del problema de autovalores con estos métodos, el coste computacional y la viabilidad de la utilización de matrices de masa o matrices de rigidez geométrica no consistentes. Además, se acomete en detalle el análisis del error, con el objetivo de determinar sus principales fuentes y obtener claves que permitan la aceleración de la convergencia. Aunque en la actualidad existe una amplia variedad de métodos meshless en apariencia independientes entre sí, se han analizado las diferentes relaciones entre ellos, deduciéndose que el método Element-Free Galerkin Method [Método Galerkin Sin Elementos] (EFGM) es representativo de un amplio grupo de los mismos. Por ello se ha empleado como referencia en este análisis. Muchas de las fuentes de error de un método sin malla provienen de su algoritmo de interpolación o aproximación. En el caso del EFGM ese algoritmo es conocido como Moving Least Squares [Mínimos Cuadrados Móviles] (MLS), caso particular del Generalized Moving Least Squares [Mínimos Cuadrados Móviles Generalizados] (GMLS). La formulación de estos algoritmos indica que la precisión de los mismos se basa en los siguientes factores: orden de la base polinómica p(x), características de la función de peso w(x) y forma y tamaño del soporte de definición de esa función. Se ha analizado la contribución individual de cada factor mediante su reducción a un único parámetro cuantificable, así como las interacciones entre ellos tanto en distribuciones regulares de nodos como en irregulares. El estudio se extiende a una serie de problemas estructurales uni y bidimensionales de referencia, y tiene en cuenta el error no sólo en el cálculo de autovalores (frecuencias propias o carga de pandeo, según el caso), sino también en términos de autovectores. This Doctoral Thesis deals with the application of meshless methods to eigenvalue problems, particularly free vibrations and buckling. The analysis is focused on aspects such as the numerical solving of the problem, computational cost and the feasibility of the use of non-consistent mass or geometric stiffness matrices. Furthermore, the analysis of the error is also considered, with the aim of identifying its main sources and obtaining the key factors that enable a faster convergence of a given problem. Although currently a wide variety of apparently independent meshless methods can be found in the literature, the relationships among them have been analyzed. The outcome of this assessment is that all those methods can be grouped in only a limited amount of categories, and that the Element-Free Galerkin Method (EFGM) is representative of the most important one. Therefore, the EFGM has been selected as a reference for the numerical analyses. Many of the error sources of a meshless method are contributed by its interpolation/approximation algorithm. In the EFGM, such algorithm is known as Moving Least Squares (MLS), a particular case of the Generalized Moving Least Squares (GMLS). The accuracy of the MLS is based on the following factors: order of the polynomial basis p(x), features of the weight function w(x), and shape and size of the support domain of this weight function. The individual contribution of each of these factors, along with the interactions among them, has been studied in both regular and irregular arrangement of nodes, by means of a reduction of each contribution to a one single quantifiable parameter. This assessment is applied to a range of both one- and two-dimensional benchmarking cases, and includes not only the error in terms of eigenvalues (natural frequencies or buckling load), but also of eigenvectors

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los fundamentos de la Teoría de la Decisión Bayesiana proporcionan un marco coherente en el que se pueden resolver los problemas de toma de decisiones. La creciente disponibilidad de ordenadores potentes está llevando a tratar problemas cada vez más complejos con numerosas fuentes de incertidumbre multidimensionales; varios objetivos conflictivos; preferencias, metas y creencias cambiantes en el tiempo y distintos grupos afectados por las decisiones. Estos factores, a su vez, exigen mejores herramientas de representación de problemas; imponen fuertes restricciones cognitivas sobre los decisores y conllevan difíciles problemas computacionales. Esta tesis tratará estos tres aspectos. En el Capítulo 1, proporcionamos una revisión crítica de los principales métodos gráficos de representación y resolución de problemas, concluyendo con algunas recomendaciones fundamentales y generalizaciones. Nuestro segundo comentario nos lleva a estudiar tales métodos cuando sólo disponemos de información parcial sobre las preferencias y creencias del decisor. En el Capítulo 2, estudiamos este problema cuando empleamos diagramas de influencia (DI). Damos un algoritmo para calcular las soluciones no dominadas en un DI y analizamos varios conceptos de solución ad hoc. El último aspecto se estudia en los Capítulos 3 y 4. Motivado por una aplicación de gestión de embalses, introducimos un método heurístico para resolver problemas de decisión secuenciales. Como muestra resultados muy buenos, extendemos la idea a problemas secuenciales generales y cuantificamos su bondad. Exploramos después en varias direcciones la aplicación de métodos de simulación al Análisis de Decisiones. Introducimos primero métodos de Monte Cario para aproximar el conjunto no dominado en problemas continuos. Después, proporcionamos un método de Monte Cario basado en cadenas de Markov para problemas con información completa con estructura general: las decisiones y las variables aleatorias pueden ser continuas, y la función de utilidad puede ser arbitraria. Nuestro esquema es aplicable a muchos problemas modelizados como DI. Finalizamos con un capítulo de conclusiones y problemas abiertos.---ABSTRACT---The foundations of Bayesian Decisión Theory provide a coherent framework in which decisión making problems may be solved. With the advent of powerful computers and given the many challenging problems we face, we are gradually attempting to solve more and more complex decisión making problems with high and multidimensional uncertainty, múltiple objectives, influence of time over decisión tasks and influence over many groups. These complexity factors demand better representation tools for decisión making problems; place strong cognitive demands on the decison maker judgements; and lead to involved computational problems. This thesis will deal with these three topics. In recent years, many representation tools have been developed for decisión making problems. In Chapter 1, we provide a critical review of most of them and conclude with recommendations and generalisations. Given our second query, we could wonder how may we deal with those representation tools when there is only partial information. In Chapter 2, we find out how to deal with such a problem when it is structured as an influence diagram (ID). We give an algorithm to compute nondominated solutions in ID's and analyse several ad hoc solution concepts.- The last issue is studied in Chapters 3 and 4. In a reservoir management case study, we have introduced a heuristic method for solving sequential decisión making problems. Since it shows very good performance, we extend the idea to general problems and quantify its goodness. We explore then in several directions the application of simulation based methods to Decisión Analysis. We first introduce Monte Cario methods to approximate the nondominated set in continuous problems. Then, we provide a Monte Cario Markov Chain method for problems under total information with general structure: decisions and random variables may be continuous, and the utility function may be arbitrary. Our scheme is applicable to many problems modeled as IDs. We conclude with discussions and several open problems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En un modelo cognitivo, la estructura cognitiva asociada con un determinado concepto matemático incluye todas las imágenes mentales, representaciones visuales, experiencias e impresiones, así como propiedades y procesos asociados (que llamaremos concepto-imagen, siguiendo a Vinner, Tall y Dreyfus y “estructuras elaboradas” o “esquemas” según los científicos cognitivos) y ha ido emergiendo con el tiempo mediante experiencias de todos los tipos, cambiando a medida que el individuo recibe nuevos estímulos y madura e influyéndose por desviaciones, aparentemente triviales, de un entendimiento válido. A medida que este concepto-imagen se desarrolla, no resulta necesario que sea coherente en cada momento. Así, resulta posible que visiones conflictivas sean evocadas en tiempos diferentes, sin que el individuo sea consciente del conflicto, hasta que son evocadas simultáneamente. Su coincidencia o no con lo que podríamos llamar concepto-definición (la formulación convencional lingüística que demarca precisamente las fronteras de aplicación del concepto) es fuente de muchas disfunciones en el aprendizaje.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo recogemos un breve resumen de la tesis doctoral "aspectos epistemológicos y cognitivos de la resolución de problemas de matemáticas bien y mal definidos. Un estudio con alumnos del primer Ciclo de la Eso Y maestros en formación" que, bajo la dirección de los Doctores D. Martín M. Socas Robayna y la Doctora Josefa Hernández Domínguez, ha sido realizada, por M. Aurelia Noda Herrera, e el área de didáctica de las matemáticas del departamento de análisis matemático.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo surgió del interés de un grupo de profesores para dar solución a uno de los principales inconvenientes de la enseñanza de las matemáticas: la resolución de problemas. Participan cinco centros de EGB y dos de bachillerato, todos ellos de la isla de La Palma, con un total de doce docentes. Objetivos: -Aumentar la capacidad de razonamiento a través del lenguaje de las matemáticas. -Traducción de situaciones reales al lenguaje matemático. -Favorecer la interpretación de situaciones reales. -Aprendizaje de conceptos matemáticos a través del análisis de problemas. -Sistematizar razonadamente las pautas para la resolución de cualquier problema. -Traducción de datos matemáticos (estadísticos) al lenguaje cotidiano. -Fomentar el orden, la limpieza y presentación del trabajo escrito. En la primera reunión se trataron los siguientes aspectos: -la formación de los grupos de trabajo donde estuvieran representados profesorado de EGB y de Medias. Se decidió aplicar el modelo POLYA para la resolución de problemas. Se elaborá una guía única para la resolución de problemas donde se recogen varios apartados: 1. Comprender el problema. 2. Cómo podemos resolverlo. 3. Ejecución de un plan. 4. Visión retrospectiva. 5. Evaluación de los alumnos. Una vez pasados todos los datos a la tabla de resultados se concluye: -Las dudas en los distintos niveles están más en el planteamiento que en la resolución del mismo. -El enunciado del problema está mal secuenciado para el orden lógico que tienen desarrollado hasta el momento los alumnos. -Se observa de forma general, que el alumno no es capaz de traducir al lenguaje matemático el texto y por tanto no lo plantean. -La falta de concentración y motivación de los alumnos impide, en la mayoría de los casos , obtener mejores resultados. -El alto porcentaje de problemas en blanco en distintos niveles, pensamos que se debe a la no adaptación del mismo al temario que se imparte en ese momento en el aula. Resultados: de los objetivos planteados al principio del trabajo realmente se incidió en: -sistematizar razonadamente las pautas para la resolución de problemas y -Fomentar el orden, limpieza y presentación del trabajo escrito. Con el fin de ayudar al alumnado a razonar la forma de resolver los problemas, se elaboraron unas pautas generales, incluidas en los 'protocolos' que acompañan a cada uno de los problemas llevados al aula. Es indudable que de esta forma se aumenta la capacidad de razonamiento a través del lenguaje en Matemáticas..

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se realiza un resumen de la investigación en didáctica del análisis matemático. Paralelamente, se explica la evolución de la concepción en la comunidad matemática de los conceptos considerados clave en la enseñanza de las matemáticas avanzadas. Se expresa una evolución a lo largo de los años hacia un modelo de enseñanza basado en la compresión intuitiva del concepto de límite. Se muestra también una progresiva delegación en las calculadoras de la parte algebraica de la resolución de problemas. Se observa una mejora en los resultados de los estudiantes que aprenden cálculo apoyándose en el uso de calculadoras. Por último, se realiza una enumeración de las investigaciones en didáctica del análisis en curso en España.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analizar las investigaciones realizadas en torno a la corrección de las pruebas objetivas de elección múltiple, buscando una alternativa que minimice los sesgos, a la vez que mantenga características psicométricas similares o mejores que las que posee el procedimiento clásico. Evaluar la eficacia de un método alternativo al clásico de corrección de la adivinación en pruebas objetivas. Analizar las relaciones existentes entre la ansiedad ante los exámenes y la preferencia de los sujetos hacia diferentes instrumentos de evaluación. Hipótesis principal: El procedimiento de corrección de la adivinación 'selección del subconjunto de alternativas donde está incluida la correcta', mejora las características psicométricas (fiabilidad y validez) de las pruebas en relación al procedimiento fórmula de corrección clásica de la adivinación. 4 muestras para el estudio principal, con un total de 462 alumnos pertenecientes a la Universidad y a BUP. Para el análisis de la ansiedad, se dispuso de una muestra de 180 universitarios. Dos estudios. En el primero se mide el rendimiento de los alumnos mediante los dos métodos de corrección comparándose los resultados entre sí. La recogida de datos se realiza mediante pruebas objetivas. En el segundo, se pretende comprobar si existe alguna relación entre la ansiedad ante los exámenes y algun tipo de examen en particular, a la vez que recoger la opinión de los alumnos sobre la fórmula tradicional de corrección por adivinación. Para ello se elabora un cuestionario. Las variables utilizadas son: -sexo, -rendimiento de los alumnos en pruebas de elección múltiple, -rendimiento de los alumnos en diferentes asignaturas, -características de personalidad, -inteligencia, -estrategia de respuesta, -motivación de logro, -tendencia al riesgo, -efecto de la influencia de los procedimientos de corrección. Pruebas objetivas de elección múltiple, escala de Mehrabian, escala de riesgo, escala de ansiedad de Spielberger, cuestionario de personalidad EPI de Eysenck, inteligencia general dominó D-48, índices de adivinación de Ziller, omisiones. Programa SPSS-PC, tablas, correlaciones, diferencias de medias. El método alternativo, que corrige la adivinación de los sujetos y cuenta con su conocimiento parcial, tiende a obtener puntuaciones más fiables y válidas que el método tradicional. En cuanto a la influencia de las características personales de los sujetos en las puntuaciones, no se encuentran tendencias marcadas a desfavorecer alguno de los métodos en concreto, salvo en los casos en que el sujeto tiende a arriesgarse más de lo habitual. Respecto a la estrategia de respuesta utilizada, se emplea una distinta en función del procedimiento de corrección a utilizar, realizando más omisiones con el método clásico. Por último, la mayoría de los sujetos prefieren el método alternativo. Los resultados de la investigación complementaria muestran que la preferencia por uno u otro método es independiente de la ansiedad ante los exámenes, pero la utilización de la fórmula clásica es más rechazada por los sujetos más ansiosos..

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Método de los Elementos Finitos ha demostrado ser una poderosa herramienta para el análisis de problemas complejos en Ingeniería Estructural, tales como la resolución de estructuras cuyos materiales son susceptibles de plastificación, por ejemplo. En cualquier caso, tal éxito sólo es posible cuando el modelo elegido de comportamiento corresponde a la realidad experimental; siendo éste uno de los problemas aún no resueltos para el hormigón por no existir modelos suficientemente generales que predigan su comportamiento dentro de las teorías de la Mecánica del Continuo. En este trabajo se presenta un modelo para el estudio de la fisuración en el hormigón dentro de un contexto matemático análogo al utilizado en la Teoría de la Plasticidad; de manera que los esquemas utilizados en el M.E.F. para la implementación de ésta siguen siendo válidos. El resultado es un método para el análisis de estructuras de hormigón que recoge el complejo fenómeno de la fisuración con relativa sencillez. También son presentados algunos ejemplos resueltos con un programa de ordenador que implementa dicho modelo dentro de las técnicas del M.E.F.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo, se realiza una presentación unificada de la Programación Multiobjetivo, describiendo y relacionando los distintos conceptos de solución y exponiendo las distintas técnicas de solución. Se formula el problema multiobjetivo mediante una séxtupla, (O, V, X, f, Y, EP), que permite unificar los muy diversos problemas multiobjetivo que surgen en distintos ámbitos. O representa el conjunto de objetos inicial, V representa el conjunto de las características relevantes que se miden sobre los objetos, X es el espacio de alternativas, f representa la familia de objetivos, Y es el espacio de resultados y EP es la estructura de preferencias del decisor. A partir de esta formulación, se realiza un amplio estudio de los distintos problemas multiobjetivo. Además, se aplica la metodología multiobjetivo a dos problemas concretos de gran interés práctico. En primer lugar, se aborda el problema de seleccionar el mejor tratamiento, cuando sobre las unidades experimentales, elegidas de forma aleatoria, se observan varias variables respuesta. Se consideran Modelos Discretos, Modelos Continuos Paramétricos y Modelos No Paramétricos. El último capítulo del trabajo, se dedica al estudio del problema multiobjetivo que se presenta cuando se desea representar, un conjunto finito de objetos, sobre la recta real, de forma que se refleje, lo más fielmente posible, la desemejanza de cada par de objetos. En el caso de que la desemejanza cumpla la propiedad de ser naturalmente ordenable, se ha diseñado y programado, un algoritmo, en tiempo polinomial, que obtiene la solución óptima del problema...