957 resultados para Modelos de performance


Relevância:

70.00% 70.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar a persistência na performance de fundos de investimento imobiliário. Para isso, adotamos metodologia semelhante à de Carhart (1997): analisamos o desempenho, ao longo do tempo, de carteiras de fundos selecionados segundo seus percentis de retorno. Posteriormente, a performance desses fundos foi avaliada através de modelos multifatores. Para determinação desses modelos, foram criados índices baseados nas informações das ações do mercado brasileiro e do IBOVESPA. Os resultados sugerem que fundos de investimento imobiliário de retorno superior apresentam persistência em seus desempenhos. No caso dos modelos multifatores, conclui-se que os dados utilizados do mercado acionário não representam de forma satisfatória fundos de investimento imobiliário. No entanto, quando a modelagem é feita utilizando-se o IFIX, nota-se alfa positivo para os fundos mais rentáveis.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Integran este número de la revista ponencias presentadas en Studia Hispanica Medievalia VIII: Actas de las IX Jornadas Internacionales de Literatura Española Medieval, 2008, y de Homenaje al Quinto Centenario de Amadis de Gaula.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Energy performance building directive? en los estados miembros de la UE. Consecuencias e implicaciones?

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar la aproximación a los fenómenos de transporte térmico en edificación acristalada a través de sus réplicas a escala. La tarea central de esta tesis es, por lo tanto, la comparación del comportamiento térmico de modelos a escala con el correspondiente comportamiento térmico del prototipo a escala real. Los datos principales de comparación entre modelo y prototipo serán las temperaturas. En el primer capítulo del Estado del Arte de esta tesis se hará un recorrido histórico por los usos de los modelos a escala desde la antigüedad hasta nuestro días. Dentro de éste, en el Estado de la Técnica, se expondrán los beneficios que tiene su empleo y las dificultades que conllevan. A continuación, en el Estado de la Investigación de los modelos a escala, se analizarán artículos científicos y tesis. Precisamente, nos centraremos en aquellos modelos a escala que son funcionales. Los modelos a escala funcionales son modelos a escala que replican, además, una o algunas de las funciones de sus prototipos. Los modelos a escala pueden estar distorsionados o no. Los modelos a escala distorsionados son aquellos con cambios intencionados en las dimensiones o en las características constructivas para la obtención de una respuesta específica por ejemplo, replicar el comportamiento térmico. Los modelos a escala sin distorsión, o no distorsionados, son aquellos que mantienen, en la medida de lo posible, las proporciones dimensionales y características constructivas de sus prototipos de referencia. Estos modelos a escala funcionales y no distorsionados son especialmente útiles para los arquitectos ya que permiten a la vez ser empleados como elementos funcionales de análisis y como elementos de toma de decisiones en el diseño constructivo. A pesar de su versatilidad, en general, se observará que se han utilizado muy poco estos modelos a escala funcionales sin distorsión para el estudio del comportamiento térmico de la edificación. Posteriormente, se expondrán las teorías para el análisis de los datos térmicos recogidos de los modelos a escala y su aplicabilidad a los correspondientes prototipos a escala real. Se explicarán los experimentos llevados a cabo, tanto en laboratorio como a intemperie. Se han realizado experimentos con modelos sencillos cúbicos a diferentes escalas y sometidos a las mismas condiciones ambientales. De estos modelos sencillos hemos dado el salto a un modelo reducido de una edificación acristalada relativamente sencilla. Los experimentos consisten en ensayos simultáneos a intemperie del prototipo a escala real y su modelo reducido del Taller de Prototipos de la Escuela Técnica Superior de Arquitectura de Madrid (ETSAM). Para el análisis de los datos experimentales hemos aplicado las teorías conocidas, tanto comparaciones directas como el empleo del análisis dimensional. Finalmente, las simulaciones nos permiten comparaciones flexibles con los datos experimentales, por ese motivo, hemos utilizado tanto programas comerciales como un algoritmo de simulación desarrollado ad hoc para esta investigación. Finalmente, exponemos la discusión y las conclusiones de esta investigación. Abstract The purpose of this thesis is to study the approximation to phenomena of heat transfer in glazed buildings through their scale replicas. The central task of this thesis is, therefore, the comparison of the thermal performance of scale models without distortion with the corresponding thermal performance of their full-scale prototypes. Indoor air temperatures of the scale model and the corresponding prototype are the data to be compared. In the first chapter on the State of the Art, it will be shown a broad vision, consisting of a historic review of uses of scale models, from antiquity to our days. In the section State of the Technique, the benefits and difficulties associated with their implementation are presented. Additionally, in the section State of the Research, current scientific papers and theses on scale models are reviewed. Specifically, we focus on functional scale models. Functional scale models are scale models that replicate, additionally, one or some of the functions of their corresponding prototypes. Scale models can be distorted or not. Scale models with distortion are considered scale models with intentional changes, on one hand, in dimensions scaled unevenly and, on the other hand, in constructive characteristics or materials, in order to get a specific performance for instance, a specific thermal performance. Consequently, scale models without distortion, or undistorted scale models scaled evenly, are those replicating, to the extent possible, without distortion, the dimensional proportions and constructive configurations of their prototypes of reference. These undistorted and functional scale models are especially useful for architects because they can be used, simultaneously, as functional elements of analysis and as decision-making elements during the design. Although they are versatile, in general, it is remarkable that these types of models are used very little for the study of the thermal performance of buildings. Subsequently, the theories related to the analysis of the experimental thermal data collected from the scale models and their applicability to the corresponding full-scale prototypes, will be explained. Thereafter, the experiments in laboratory and at outdoor conditions are detailed. Firstly, experiments carried out with simple cube models at different scales are explained. The prototype larger in size and the corresponding undistorted scale model have been subjected to same environmental conditions in every experimental test. Secondly, a step forward is taken carrying out some simultaneous experimental tests of an undistorted scale model, replica of a relatively simple lightweight and glazed building construction. This experiment consists of monitoring the undistorted scale model of the prototype workshop located in the School of Architecture (ETSAM) of the Technical University of Madrid (UPM). For the analysis of experimental data, known related theories and resources are applied, such as, direct comparisons, statistical analyses, Dimensional Analysis and last, but not least important, simulations. Simulations allow us, specifically, flexible comparisons with experimental data. Here, apart the use of the simulation software EnergyPlus, a simulation algorithm is developed ad hoc for this research. Finally, the discussion and conclusions of this research are exposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen: A partir de la crisis financiera y económica internacional, ha caido la visión del mundo unipolar (basada en la interpretación extrema del libre mercado) para dar lugar al retorno de la intervención del Estado en la economía, en un mundo multipolar en donde se da la competencia de modelos nacionales o socio-culturales de capitalismo. Este trabajo analiza los límites que presenta este sistema de capitalismo estado, y lo contrasta con La Economía Social de Mercado como sistema de ordenamiento de la economía. Este es un sistema que requiere la presencia de un marco institucional sólido que la regule y está focalizado en la equidad y la autosuperación de las personas. Se busca así analizar el funcionamiento de estos sistemas en el marco que les dio origen y analizar su efectividad y su crecimiento en el mundo en los últimos años. Finalmente, se emplea el análisis de estas teorías para el caso latinoamericano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES] Los modelos implícitos constituyen uno de los enfoques de valoración de opciones alternativos al modelo de Black-Scholes que ha conocido un mayor desarrollo en los últimos años. Dentro de este planteamiento existen diferentes alternativas: los árboles implícitos, los modelos con función de volatilidad determinista y los modelos con función de volatilidad implícita. Todos ellos se construyen a partir de una estimación de la distribución de probabilidades riesgo-neutral del precio futuro del activo subyacente, congruente con los precios de mercado de las opciones negociadas. En consecuencia, los modelos implícitos proporcionan buenos resultados en la valoración de opciones dentro de la muestra. Sin embargo, su comportamiento como instrumento de predicción para opciones fuera de muestra no resulta satisfactorio. En este artículo se analiza la medida en la que este enfoque contribuye a la mejora de la valoración de opciones, tanto desde un punto de vista teórico como práctico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES] El presente estudio sintetiza las contribuciones realizadas en la investigación sobre la calidad y su relación con los resultados. La revisión se lleva a cabo considerando la variada casuística que se ha utilizado en el diseño de los trabajos analizados, desde distintas medidas para reflejar la gestión de la calidad o los resultados conseguidos por la empresa, hasta el diferente modelo de investigación propuesto. Centrando nuestra atención en los estudios sobre las relaciones entre TQM y resultado financiero, consideramos que el diseño de modelos de análisis que incorporen y combinen tanto medidas subjetivas como objetivas del rendimiento empresarial, ayudaría a entender la diversidad de resultados obtenidos en esta línea de investigación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[EN] This study analyzes the relationship between board size and economic-financial performance in a sample of European firms that constitute the EUROSTOXX50 Index. Based on previous literature, resource dependency and agency theories, and considering regulation developed by the OECD and European Union on the normative of corporate governance for each country in the sample, the authors propose the hypotheses of both positive linear and quadratic relationships between the researched parameters. Using ROA as a benchmark of financial performance and the number of members of the board as measurement of the board size, two OLS estimations are performed. To confirm the robustness of the results the empirical study is tested with two other similar financial ratios, ROE and Tobin s Q. Due to the absence of significant results, an additional factor, firm size, is employed in order to check if it affects firm performance. Delving further into the nature of this relationship, it is revealed that there exists a strong and negative relation between firm size and financial performance. Consequently, it can be asseverated that the generic recommendation one size fits all cannot be applied in this case; which conforms to the Recommendations of the European Union that dissuade using generic models for all countries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente Tese de Doutorado analisa as características e os efeitos da cientometria e bibliometria adotadas no Brasil. Primeiramente, a fim de contextualizar o tema, faço uma revisão de literatura acerca do processo de mercantilização da educação. Meu objetivo é mostrar a inclinação empresarial das políticas públicas educacionais, especialmente aquelas voltadas para a pós-graduação. Além disso, seleciono e analiso alguns conceitos que ajudam a compreender o presente tema, bem como sustento a inadequação da lógica de economia de mercado como forma de gerir a Academia e a ciência. Na segunda parte da Tese, focalizo os critérios adotados para avaliar a hierarquizar Programas de Pós-Graduação e diferenciar pesquisadores. A tese a ser defendida é que o modelo CAPES de avaliação da pós-graduação está baseado numa norma produtividade de cunho periodicocrático que cria uma forte pressão por publicação de artigos em periódicos acadêmico-científicos, uma vez que eles os produtos privilegiados no modelo de mensuração objetivista em vigor. Produzir/publicar artigos torna-se, portanto, a performance acadêmico-científica por excelência. Isso enseja a criação de um mercado acadêmico-científico e de um mercado de publicações, o que cria um contexto propício para a ocorrência de más condutas acadêmico-científicas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Históricamente, los modelos de no-ejercicio para predecir el consumo máximo de oxígeno (VO2max) han sido construidos mediante regresión lineal frecuentista, usando técnicas estándar de selección de modelos. Sin embargo, existe incertidumbre acerca de la estructura estadística en el proceso de selección del modelo. En este estudio se propuso construir un modelo de no-ejercicio para predecir el VO2max en deportistas orientados al rendimiento, considerando la incertidumbre de modelo a través del Promedio Bayesiano de Modelos (BMA). Un objetivo adicional fue comparar la performance predictiva del BMA con las de los modelos derivados de varias técnicas frecuentistas usuales de selección de variables. Con tal fin, se implementó un submuestreo aleatorio estratificado repetido. Los datos incluyeron observaciones de la variable respuesta (en L·min-1), así como registros de Género, Deporte, Edad, Peso, Talla e Índice de masa corporal (BMI) (Edad = 22.1 ± 4.9 años, media ± SD; n = 272). Se propuso una clasificación de deportes con el objetivo de incluirla dentro del proceso de construcción del modelo: Combate, Juego, Resistencia 1 y Resistencia 2. El enfoque BMA se implementó en base a dos métodos: Occam's window y Composición de Modelo mediante el método de Monte Carlo con Cadenas de Markov (MC²). Se observaron discrepancias en la selección de variables entre los procedimientos frecuentistas. Ambos métodos de BMA produjeron resultados muy similares. Los modelos que incluyeron Género y las variables dummies para Resistencia 1 y Resistencia 2 acumularon virtualmente toda la probabilidad de modelo a posteriori. El Peso fue el predictor continuo con la más alta probabilidad de inclusión a posteriori (menor a 0.8). Las combinaciones de variables que involucraron predictores con un alto nivel de multicolinealidad fueron desacreditadas. Los modelos con sustancial contribución para el BMA presentaron un ajuste apreciable (R² ajustado menor a 0.8). Entre los modelos seleccionados por estrategias frecuentistas, el obtenido mediante el método de regresión por pasos (Stepwise regression method) con alfa igual a 0.05 fue el más respaldado por los datos, en términos de probabilidad de modelo a posteriori. En concordancia con la literatura, el BMA tuvo mejor performance predictiva de los datos fuera de la muestra que los modelos seleccionados por técnicas frecuentistas, medida por la cobertura del intervalo de predicción de 90 por ciento. La clasificación de deportes reveló resultados consistentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Processos e Modelos de Raciocínio na Tomada de Decisão: contributos concetuais e interrogações Dulce Magalhães - Departamento de Enfermagem, Universidade de Évora Manuel Lopes - Departamento de Enfermagem, Universidade de Évora Ana Fonseca - Departamento de Enfermagem, Universidade de Évora Os enfermeiros que integram as equipas de unidades de cuidados hospitalares têm que prevenir, minimizar e corrigir situações clínicas instáveis. Em consequência disso defrontam-se diária e sistematicamente com a obrigatoriedade de tomar decisões no contexto da ação (Thompson & Dowding, 2005) e agir em conformidade. Eles têm que tomar decisões num espaço que não é reservado e que está confinado a uma teia de relações que acontecem entre o doente, a família e os restantes membros da equipa de saúde (Benner et al, 2011; Tanner, 2006, Lopes, 2006). Um espaço onde acontecem múltiplas interrupções que provêm de procedimentos de trabalho e exigências constantes de atenção a cada doente (Hedberg & Larsson, 2004; Potter et al, 2005; Wolf et al, 2006). São decisões processuais e multidimensionais que têm que considerar em simultâneo, o que deve ser feito, como deve ser feito e quando deve ser feito, no respeito da singularidade do doente e do seu contexto circundante (Gillespie, 2009). Esta dinâmica também está interligada com os dados clínicos que recorrentemente emergem, bem como à acessibilidade, multiplicidade e ambiguidade dos dados clínicos (Junnola et al, 2002; Carnevali &Thomas, 1993 Simmons, 2010), ao tempo de decisão e às decisões conflituosas (Thompson, 2004). São ambientes clínicos onde acontecem contingências, algumas delas aleatórias, que exigem que os enfermeiros independentemente dos níveis de proficiência sejam obrigados a tomar decisões complexas de forma rápida e precisa, para optimizar os resultados esperados (Curry & Botti, 2006). O conhecimento e o raciocínio que os enfermeiros usam na tomada de decisão são elementos, entre outros, que definem muito da prática profissional (Cody, 2006). Por isso, conscientes da realidade enunciada através da investigação que tem vindo a ser desenvolvida, foi nossa intenção analisar criticamente os modelos de decisão que têm expressão na literatura de enfermagem e que têm sido desenvolvidos em diferentes áreas do conhecimento (Concoran-Perry et al, 1999), no sentido de reconhecer o seu poder explicativo para a tomada de decisão dos enfermeiros. Alguns deles são apresentados numa estrutura normativa, outros numa descritiva e em função disso, podem dividir-se em duas categorias teóricas, sistemático-positivista e intuitivo-humanista (Thompson, 1999; Aitken, Marshall, Elliott & McKinley, 2007). As abordagens sistemático-positivistas sugerem que a tomada de decisão acontece num processo sequencial previamente definido e explicitado. Assentam no pressuposto que existe alguma atividade de análise ou de resolução de problemas em curso, para o enfermeiro tomar uma decisão. Nas abordagens intuitivo-humanistas a decisão é entendida no seio de um processo como um todo e no contexto de uma abordagem naturalista (Benner, 1984; Thompson, 1999). Elas podem ser diferenciadas, desde logo, a partir dos seus centros de interesse. Enquanto a primeira se interessa pelo número de dados e pelos processos de análise cognitiva para uma melhor decisão. A segunda dá primazia aos contextos relacionais e de comunicação com os doentes e serve-se da performance clínica para eleger as melhores ações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.