904 resultados para Solução de problemas matemáticos
Resumo:
El objetivo de la investigación es estudiar la eficacia de un modelo de habilidades y estrategias de pensamiento en dos vertientes: una, la mejora de la competencia matemática de un grupo de alumnos y la otra, el enriquecimiento y desarrollo de estrategias de solución de problemas matemáticos. Hipótesis: el Programa sobre Habilidades y Estrategias de Pensamiento aumenta: la competencia matemática, la eficacia en la solución de problemas matemáticos, la inteligencia general o factor G y las aptitudes escolares, verbales, razonamiento y cálculo. 90 alumnos de edades comprendidas entre los 11 (edad media al inicio de la intervención) y 13 años (edad media al final de la intervención). Los alumnos (niños y niñas) se seleccionaron por mostrar un nivel medio de competencia matemática y bajo en solución de problemas. La investigación se divide en dos partes. La primera fundamenta teóricamente el aprendizaje estratégico en el que se apoya el programa de intervención propuesto. Este programa se incluye dentro de la corriente conocida como enseñar a pensar. Está basado en dos modelos de desarrollo de habilidades de pensamiento: el Proyecto de Inteligencia de la Universidad de Harvard y el Programa de Enriquecimiento Instrumental de Reuven Feuerstein, dentro de su Teoría de la Modificabilidad Estructural Cognitiva. El estudio se llevó a cabo durante dos cursos académicos y en él participaron 90 alumnos pertenecientes a dos centros públicos de la Región de Murcia (sexto y séptimo de EGB). En uno de ellos se situó el grupo experimental (50 alumnos) y en el otro el de control (40). El grupo experimental recibió un entrenamiento de tres horas semanales dentro del Programa de Habilidades y Estrategias diseñado. El grupo de control sólo siguió el currículum ordinario. Los grupos de control y experimental se consideraron homogéneos en función de: pertenecer a centros situados en la misma localidad, próximos físicamente (entorno socio-cultural) y emplear la misma metodología en el área de Matemáticas. Selección de los instrumentos de recogida de información pre y posttest. Entrenamiento de los profesores. Evaluación pretest. Diseño e implementación del Programa sobre Habilidades Cognitivas en el área de Matemáticas. Evaluación posttest y análisis de los datos. Variables: la variables dependientes fueron: las diferencias entre las puntuaciones del test factor G de Cattell, en cada uno de los cuatro subtests y el test TEA-2, en cada una de las tres subpruebas (verbal, razonamiento y c lculo) y las puntuaciones obtenidas en las pruebas de competencia matemática (solución de problemas), en los dos momentos de la administración del Programa (pre y posttest). La variable independiente fue la asignación del grupo (experimental con intervención y de control sin ella). Test factor G de Cattell, TEA-2 sobre aptitudes para las tareas escolares. Prueba de competencia matemática (MEC, 1985). Materiales de entrenamiento: Proyecto Inteligencia (Herrstein, 1980) y Programa de Enriquecimiento Instrumental (Feuerstein, 1980). Statistical Grafics (1986) y SYSTAT (ver 3.0). En cuanto a inteligencia general no se encontró diferencias significativas entre el grupo experimental y el de control en las subpruebas del test, pero si se da un aumento de la media de las puntuaciones de las subpruebas en el grupo experimental sobre el de control que pudiera atribuirse al tratamiento recibido. En cuanto a la influencia del Programa aplicado en la mejora de las aptitudes académicas (TEA-2), el análisis estadístico muestra que no existen diferencias significativas entre el grupo experimental y el de control en las subpruebas de aptitud verbal ni en la de cálculo, sí en la de razonamiento, a favor del grupo experimental. La prueba de competencia matemática se utilizó con el fin de analizar la eficacia del Programa, se encontró diferencias significativas entre el grupo experimental y el de control a favor del primero y con respecto a las puntuaciones totales; por tanto, se contempla la eficacia del modelo tal y como se planteó en la hipótesis de trabajo. El problema al que se enfrentan los profesores es el de la falta de materiales adecuados con los que poder evaluar y explicar todos los miniprocesos que el alumno usa y sobre todo, cómo los transfiere a la situación matemática y cómo los rentabiliza en su vida diaria. El currículum formal ha de considerar los conocimientos informales y la aplicación de ambos a la vida y a la escuela. El saber lograr la trasferencia de los aprendizajes no sólo es producto de la aplicación de este tipo de modelos, sino más bien una tarea de profesionalización y perfeccionamiento del profesor como mediador y experto en la organización de las experiencias de aprendizaje tal y como señalan Feuerstein y Berliner.
Resumo:
Hipótesis: 1. Las pruebas de conservación, clasificación, seriación, espacio, tiempo y causalidad, son buenos predictores del fracaso en el área lógico matemática. 2. Deben dicernir entre sujetos con trastornos de aprendizaje en Matemáticas y aquellos que no lo tienen. 3. Las pruebas que hacen referencia a la función explicativa de la inteligencia sirven para diferenciar entre sujetos buenos y malos solucionadores de problemas matemáticos. 4. Las pruebas que hacen referencia a la función implicativa de la inteligencia sirven para diferenciar entre sujetos buenos y malos solucionadores de problemas matemáticos. 5. La combinación de puntuaciones en las variables que se analizan deben discriminar sujetos con problemas de aprendizaje matemático y aquellos que no presentan dicho problema. 85 sujetos pertenecientes al ciclo inicial de EGB de tres centros escolares de pedanías de Murcia. Grupo experimental formado por sujetos que presentaban trastornos y dificultades en el aprendizaje de las Matemáticas, y grupo control formado por alumnos buenos solucionadores de problemas matemáticos. Prueba de conservación cantidades continuas y discretas (Piaget). Pruebas de clasificación, inclusión, clase única (Piaget). Prueba de seriación (Piaget y Szeminsca 1974). Pruebas espaciales (M.Pinol-Douriez 1979). Prueba de formas geométricas (mini arco E.Haferkamp y H.Vogel 1972). Prueba espacial posturocinética (basada en M.Inol-Douriez 1979). Prueba de tiempo: inteligencia rítmica (Germaine Rossel 1979) y estructuras rítmicas (M.Stamback). Prueba de causalidad. Para la hipótesis primera análisis de regresión múltiple, para la segunda, prueba de 'T'. Para las hipótesis tercera, cuarta y quinta se verificaron sendos análisis estadísticos mediante el empleo de T2 de Hottelling. En el análisis de regresión múltiple se obtuvo un coeficiente de correlación de 0'85, con un total de 658 unidades de variación a explicar: 466'63. En la segunda hipótesis los resultados arrojan un valor de 'T' de 10'87 que resulta significativo (0'0001). La hipótesis tercera arrojó un valor T2 global de 160'4 significativo a un nivel inferior al 0'0001. Los valores 'T' para las variables tercera, cuarta y quinta fueron, 6'45, 9'59 y 8'91, resultados significativos al nivel inferior 0'0001. La T2 de Hottelling para las funciones explicativas e implicativas de la inteligencia arroja un valor de 158 y es significativo. La utilización de dichos instrumentos en el ámbito escolar no es garantía del éxito pedagógico, no obstante, el poder evaluar en cualquier momento la situación o nivel cognitivo de un sujeto, abre muchas posibilidades al educador. El instrumento elaborado ha resultado competente en el marco de las hipótesis que se formularon y se ha mostrado útil para determinar aspectos interesantes para el niño y su desarrollo cognitivo.
Resumo:
La dificultad en la resolución de problemas no sólo estriba en realizar operaciones de suma, resta, multiplicación y división sino que hay varios factores. Se trata de analizar los conceptos implicados en el desarrollo del pensamiento matemático. Las características de los problemas con estructura aditiva y multiplicativa que aparecen en los libros de texto de matemáticas de Educación Primaria. Analizar el rol de los problemas verbales en los libros de texto de matemáticas y la orientación que tienen las creencias del profesor acerca de la enseñanza-aprendizaje de la matemática elemental. Indagar cómo se encuentran los conocimientos de contenido pedagógico del profesor respecto a los diferentes tipos de problemas aditivos. En el primer análisis de los libros de texto en el ámbito de las matemáticas, los datos que se presentan en el estudio, se obtienen de cuatro editoriales. La editorial Santillana (1999) y Anaya (2002) en el caso de España y la editorial Fundación Alianza (2000) y Don Bosco (2000) en el caso de Paraguay. Se analizan en total 24 libros de Educación Primaria. Para el segundo análisis, del rol que juegan los problemas en el libro de texto se ha considerado además del libro del alumno, el libro guía del profesor de las dos editoriales españolas, porque contienen aspectos específicos como el programa que se promueve para la resolución de problemas y estrategias. En cuanto al estudio del pensamiento del profesor se presentan 200 profesores de España y Paraguay, se incluyen en la muestra 26 colegios públicos de ambos países, 13 concertados pertenecientes a la ciudad de Salamanca y 15 colegios privados (instituciones católicas) de Paraguay. Se presenta un cuestionario para evaluar las creencias del profesor acerca de la enseñanza de las matemáticas, otro para la práctica educativa y otro orientado a analizar el conocimietno del profesor a partir de la estimación del grado de dificultad de diferentes tipos de problemas aditivos. Para la resolución de problemas matemáticos, se parte de las nociones artiméticas en las que se analiza, los orígenes del conocimiento numérico, el desarrollo del conteo y la importancia del concepto parte-todo, en la que se plantea cómo se adquieren y qué desarrollo siguen estos contenidos aritméticos básicos. Se hace distinción entre los que surgen desde la experiencia informal o conocimientos implícitos de los niños y los que se adquieren desde la enseñanza explícita. Las Estructuras Aditivas, donde se describen las situaciones problemáticas a las que los alumnos se enfrentan de manera informal y que se encuentran relacionadas con un tipo de estructura semántica y los diferentes modelos del proceso de resolución de problemas que se proponen. Los diferentes aspectos analizados constatan que los problemas que habitualmente aparecen en los libros de texto presentan una naturaleza altamente estereotipada en la que no es necesario poner en marcha sofisticadas estrategias que permitan llegar a la resolución. En el estudio centrado en el análisis del pensamiento del profesor a partir del estudio de las creencias y conocimientos de contenido pedagógico, los resultados llevan a considerar dos cuestiones de especial relevancia, la relación entre creencias y conocimientos con la experiencia de los profesores y la utilización de los libros de texto. Por lo que los profesores con más experiencia son los que promueven mejores estrategias de resolución de problemas y una orientación más constructivista. Los niños necesitan contextos ricos y variados de situaciones problemáticas. Se necesita contextualizar la resolución de problemas matemáticos en situaciones cotidianas del entorno del alumno. Se debe entender la resolución del problema como el auténtico eje de los contenidos aritméticos y no al servicio del ejercicio de las operaciones.
Resumo:
Resumen basado en el de la publicación
Resumo:
Este trabalho apresenta o método dos elementos finitos em conjunto com métodos numéricos especificos para a solução de problemas de fratura. Esta é uma poderosa ferramenta para a análise de fraturas e soluções confiáveis são obtidas para problemas complexos de Engenharia tanto no campo linear como no não-linear. O elemento finito. implementado é do tipo isoparamétrico quadrâtico da família Serendipity. Com dois graus de liberdade por nó, permite discretizar em estado plano de tensão ou deformação estruturas com geometrias bastante variadas. Para a análise linear são implementadas quatro técnicas consagradas para a avaliação do fator de intensidade de tensão no modo I de fratura: extrapolação de doslocamentos (usando malha somente com elementos convencionais e malha mesclada com elementos especiais), taxa de liberação de energia de defermação, extensão virtual da trinca e o método da integral J, descartando-se neste caso a hipótese de descarregamento. A linguagem de programação adotada é o FORTRAN 77. A entrada de dados é feita por intermédio de arquivos previamente preparados. Os resultados obtidos são confrontados com resultados experimentais e computacionais fornecidos por outros programas. Analisam-se placas, estruturas de uso na indústria e simulam-se ensaios como o corpo de prova de flexão em três pontos e o corpo de prova de tensão. compacto.
Resumo:
o presente trabalho aborda a aplicação do método dos elementos de contorno (MEC) para solução de problemas de flexão linear e geometricamente não-linear de placas semiespessas. Os modelos de placa empregados consideraram a influência do cisalhamento através de teorias de primeira ordem, especificamente as de Mindlin e Reissner. Uma formulação integral unificada dos modelos de placa utilizados é desenvolvida para o operador de Navier do problema, onde foram mantidos alguns termos de ordem superior no tensor deformação de Green. A formulação integral do problema de membrana acoplado ao de flexão é igualment desenvolvida, levando a um sistema de equações integrais não-lineares que descreve completamente problemas de placas que envolvem grandes deslocamentos. Estas equações podem ser particularizadas para problemas de flexão linear e estabilidade elástica. Tendo em vista a necessidade de se considerar derivadas dos deslocamentos translacionais, as equações integrais correspondentes ao gradiente dos deslocamentos também foram deduzidas, caracterizando uma formulação hipersingular. o método empregado para solução numérica do sistema de equações integrais foi o método direto dos elementos de contorno. Um tratamento das integrais fortemente singulares presentes nas equações foi realizado, baseado em expansões assint6ticas dos núcleos. Deste procedimento resulta uma abordagem regularizada que emprega apenas quadraturas padrão de Gauss-Legendre.
Resumo:
Neste trabalho, desenvolvemos uma metodologia semi-analítica para solução de problemas de condução de calor bidimensional, não-estacionária em meios multicompostos. Esta metodologia combina os métodos nodal, com parâmetros concentrados, e a técnica da transformada de Laplace. Inicialmente, aplicamos o método nodal. Nele, a equação diferencial parcial que descreve o problema é integrada, transversalmente, em relação a uma das variáveis espaciais. Em seguida, é utilizado o método de parâmetros concentrados, onde a distribuição de temperatura nos contornos superior e inferior é substituída pelo seu valor médio. Os problemas diferenciais unidimensionais resultantes são então resolvidos com o uso da técnica da transformada de Laplace, cuja inversão é avaliada numericamente. O método proposto é usado na solução do problema de condução de calor, em paredes de edificações. A implementação computacional é feita, utilizando-se a linguagem FORTRAN e os resultados numéricos obtidos são comparados com os disponíveis na literatura.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.
Resumo:
Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
The problems of combinatory optimization have involved a large number of researchers in search of approximative solutions for them, since it is generally accepted that they are unsolvable in polynomial time. Initially, these solutions were focused on heuristics. Currently, metaheuristics are used more for this task, especially those based on evolutionary algorithms. The two main contributions of this work are: the creation of what is called an -Operon- heuristic, for the construction of the information chains necessary for the implementation of transgenetic (evolutionary) algorithms, mainly using statistical methodology - the Cluster Analysis and the Principal Component Analysis; and the utilization of statistical analyses that are adequate for the evaluation of the performance of the algorithms that are developed to solve these problems. The aim of the Operon is to construct good quality dynamic information chains to promote an -intelligent- search in the space of solutions. The Traveling Salesman Problem (TSP) is intended for applications based on a transgenetic algorithmic known as ProtoG. A strategy is also proposed for the renovation of part of the chromosome population indicated by adopting a minimum limit in the coefficient of variation of the adequation function of the individuals, with calculations based on the population. Statistical methodology is used for the evaluation of the performance of four algorithms, as follows: the proposed ProtoG, two memetic algorithms and a Simulated Annealing algorithm. Three performance analyses of these algorithms are proposed. The first is accomplished through the Logistic Regression, based on the probability of finding an optimal solution for a TSP instance by the algorithm being tested. The second is accomplished through Survival Analysis, based on a probability of the time observed for its execution until an optimal solution is achieved. The third is accomplished by means of a non-parametric Analysis of Variance, considering the Percent Error of the Solution (PES) obtained by the percentage in which the solution found exceeds the best solution available in the literature. Six experiments have been conducted applied to sixty-one instances of Euclidean TSP with sizes of up to 1,655 cities. The first two experiments deal with the adjustments of four parameters used in the ProtoG algorithm in an attempt to improve its performance. The last four have been undertaken to evaluate the performance of the ProtoG in comparison to the three algorithms adopted. For these sixty-one instances, it has been concluded on the grounds of statistical tests that there is evidence that the ProtoG performs better than these three algorithms in fifty instances. In addition, for the thirty-six instances considered in the last three trials in which the performance of the algorithms was evaluated through PES, it was observed that the PES average obtained with the ProtoG was less than 1% in almost half of these instances, having reached the greatest average for one instance of 1,173 cities, with an PES average equal to 3.52%. Therefore, the ProtoG can be considered a competitive algorithm for solving the TSP, since it is not rare in the literature find PESs averages greater than 10% to be reported for instances of this size.
Resumo:
This paper has two objectives: (i) conducting a literature search on the criteria of uniqueness of solution for initial value problems of ordinary differential equations. (ii) a modification of the method of Euler that seems to be able to converge to a solution of the problem, if the solution is not unique
Resumo:
Técnicas de otimização numérica são úteis na solução de problemas de determinação da melhor entrada para sistemas descritos por modelos matemáticos e cujos objetivos podem ser expressos de uma maneira quantitativa. Este trabalho aborda o problema de otimizar as dosagens dos medicamentos no tratamento da AIDS em termos de um balanço entre a resposta terapêutica e os efeitos colaterais. Um modelo matemático para descrever a dinâmica do vírus HIV e células CD4 é utilizado para calcular a dosagem ótima do medicamento no tratamento a curto prazo de pacientes com AIDS por um método de otimização direta utilizando uma função custo do tipo Bolza. Os parâmetros do modelo foram ajustados com dados reais obtidos da literatura. Com o objetivo de simplificar os procedimentos numéricos, a lei de controle foi expressa em termos de uma expansão em séries que, após truncamento, permite obter controles sub-ótimos. Quando os pacientes atingem um estado clínico satisfatório, a técnica do Regulador Linear Quadrático (RLQ) é utilizada para determinar a dosagem permanente de longo período para os medicamentos. As dosagens calculadas utilizando a técnica RLQ , tendem a ser menores do que a equivalente terapia de dose constante em termos do expressivo aumento na contagem das células T+ CD4 e da redução da densidade de vírus livre durante um intervalo fixo de tempo.
Resumo:
Para empresas de manufatura, vários autores recomendam a utilização da flexibilidade de manufatura para a minimização dos impactos prejudiciais que os riscos incutem às organizações. Entretanto, a característica multidimensional da flexibilidade de manufatura e os trade-offs existentes entre os diversos tipos dificultam a tarefa de se selecionar e adequar o grau de flexibilidade a ser adotado, frente às variáveis existentes. Além disso, a escolha indevida de tipos de flexibilidade para a solução de problemas pode gerar investimentos desnecessários e inadequados, ocasionando perda de capital e ineficiência no uso dos recursos flexíveis escolhidos para antecipação aos riscos. Assim, disponibilizar à gestão de operações resultados que permitam a seleção de diferentes tipos de flexibilidade, segundo as necessidades e a disponibilidade de recursos de cada empresa, torna-se crucial. Com esse propósito, efetuou-se uma pesquisa empírica que contemplou oito empresas de cinco segmentos industriais, na qual, por meio de uma analogia à diversificação de riscos em carteira de ações, propõe-se a composição de cinco diferentes tipos de carteiras de flexibilidades, para cinco diferentes segmentos industriais.