14 resultados para modelar

em Instituto Politécnico do Porto, Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estuda-se a geração de trajectórias em tempo real de um robô quadrúpede. As trajectórias podem dividir-se em duas componentes: rítmica e discreta. A componente rítmica das trajectórias é modelada por uma rede de oito osciladores acoplados, com simetria 4 2 Z  Z . Cada oscilador é modelado matematicamente por um sistema de Equações Diferenciais Ordinárias. A referida rede foi proposta por Golubitsky, Stewart, Buono e Collins (1999, 2000), para gerar os passos locomotores de animais quadrúpedes. O trabalho constitui a primeira aplicação desta rede à geração de trajectórias de robôs quadrúpedes. A derivação deste modelo baseia-se na biologia, onde se crê que Geradores Centrais de Padrões de locomoção (CPGs), constituídos por redes neuronais, geram os ritmos associados aos passos locomotores dos animais. O modelo proposto gera soluções periódicas identificadas com os padrões locomotores quadrúpedes, como o andar, o saltar, o galopar, entre outros. A componente discreta das trajectórias dos robôs usa-se para ajustar a parte rítmica das trajectórias. Este tipo de abordagem é útil no controlo da locomoção em terrenos irregulares, em locomoção guiada (por exemplo, mover as pernas enquanto desempenha tarefas discretas para colocar as pernas em localizações específicas) e em percussão. Simulou-se numericamente o modelo de CPG usando o oscilador de Hopf para modelar a parte rítmica do movimento e um modelo inspirado no modelo VITE para modelar a parte discreta do movimento. Variou-se o parâmetro g e mediram-se a amplitude e a frequência das soluções periódicas identificadas com o passo locomotor quadrúpede Trot, para variação deste parâmetro. A parte discreta foi inserida na parte rítmica de duas formas distintas: (a) como um offset, (b) somada às equações que geram a parte rítmica. Os resultados obtidos para o caso (a), revelam que a amplitude e a frequência se mantêm constantes em função de g. Os resultados obtidos para o caso (b) revelam que a amplitude e a frequência aumentam até um determinado valor de g e depois diminuem à medida que o g aumenta, numa curva quase sinusoidal. A variação da amplitude das soluções periódicas traduz-se numa variação directamente proporcional na extensão do movimento do robô. A velocidade da locomoção do robô varia com a frequência das soluções periódicas, que são identificadas com passos locomotores quadrúpedes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the Fuzzy Monte Carlo Model for Transmission Power Systems Reliability based studies (FMC-TRel) methodology, which is based on statistical failure and repair data of the transmission power system components and uses fuzzyprobabilistic modeling for system component outage parameters. Using statistical records allows developing the fuzzy membership functions of system component outage parameters. The proposed hybrid method of fuzzy set and Monte Carlo simulation based on the fuzzy-probabilistic models allows catching both randomness and fuzziness of component outage parameters. A network contingency analysis to identify any overloading or voltage violation in the network is performed once obtained the system states. This is followed by a remedial action algorithm, based on Optimal Power Flow, to reschedule generations and alleviate constraint violations and, at the same time, to avoid any load curtailment, if possible, or, otherwise, to minimize the total load curtailment, for the states identified by the contingency analysis. For the system states that cause load curtailment, an optimization approach is applied to reduce the probability of occurrence of these states while minimizing the costs to achieve that reduction. This methodology is of most importance for supporting the transmission system operator decision making, namely in the identification of critical components and in the planning of future investments in the transmission power system. A case study based on Reliability Test System (RTS) 1996 IEEE 24 Bus is presented to illustrate with detail the application of the proposed methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O contributo da área de investigação Interacção Humano-Computador (HCI) está patente não só na qualidade da interacção, mas também na diversificação das formas de interacção. A HCI define-se como sendo uma disciplina que se dedica ao desenho, desenvolvimento e implementação de sistemas de computação interactivos para uso humano e estudo dos fenómenos relevantes que os rodeiam. Pretende-se, no âmbito desta tese de mestrado, o desenvolvimento de um Editor Gráfico de Layout Fabril a integrar num SAD para suporte ao Planeamento e Controlo da Produção. O sistema deve ser capaz de gerar um layout fabril do qual constam, entre outros objectos, as representações gráficas e as respectivas características/atributos do conjunto de recursos (máquinas/processadores) existentes no sistema de produção a modelar. O módulo desenvolvido será integrado no projecto de I&D ADSyS (Adaptative Decision Support System for Interactive Scheduling with MetaCognition and User Modeling Experience), melhorando aspectos de interacção referentes ao sistema AutoDynAgents, um dedicado ao escalonamento, planeamento e controlo de produção. Foi realizada a análise de usabilidade a este módulo com a qual se pretendeu realizar a respectiva avaliação, através da realização de um teste de eficiência e do preenchimento de um inquérito, da qual se identificaram um conjunto de melhorias e sugestões a serem consideradas no refinamento deste módulo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In almost all industrialized countries, the energy sector has suffered a severe restructuring that originated a greater complexity in market players’ interactions. The complexity that these changes brought made way for the creation of decision support tools that facilitate the study and understanding of these markets. MASCEM – “Multiagent Simulator for Competitive Electricity Markets” arose in this context providing a framework for evaluating new rules, new behaviour, and new participants in deregulated electricity markets. MASCEM uses game theory, machine learning techniques, scenario analysis and optimisation techniques to model market agents and to provide them with decision-support. ALBidS is a multiagent system created to provide decision support to market negotiating players. Fully integrated with MASCEM it considers several different methodologies based on very distinct approaches. The Six Thinking Hats is a powerful technique used to look at decisions from different perspectives. This tool’s goal is to force the thinker to move outside his habitual thinking style. It was developed to be used mainly at meetings in order to “run better meetings, make faster decisions”. This dissertation presents a study about the applicability of the Six Thinking Hats technique in Decision Support Systems, particularly with the multiagent paradigm like the MASCEM simulator. As such this work’s proposal is of a new agent, a meta-learner based on STH technique that organizes several different ALBidS’ strategies and combines the distinct answers into a single one that, expectedly, out-performs any of them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No decorrer dos últimos anos, os agentes (inteligentes) de software foram empregues como um método para colmatar as dificuldades associadas com a gestão, partilha e reutilização de um crescente volume de informação, enquanto as ontologias foram utilizadas para modelar essa mesma informação num formato semanticamente explícito e rico. À medida que a popularidade da Web Semântica aumenta e cada vez informação é partilhada sob a forma de ontologias, o problema de integração desta informação amplifica-se. Em semelhante contexto, não é expectável que dois agentes que pretendam cooperar utilizem a mesma ontologia para descrever a sua conceptualização do mundo. Inclusive pode revelar-se necessário que agentes interajam sem terem conhecimento prévio das ontologias utilizadas pelos restantes, sendo necessário que as conciliem em tempo de execução num processo comummente designado por Mapeamento de Ontologias [1]. O processo de mapeamento de ontologias é normalmente oferecido como um serviço aos agentes de negócio, podendo ser requisitado sempre que seja necessário produzir um alinhamento. No entanto, tendo em conta que cada agente tem as suas próprias necessidades e objetivos, assim como a própria natureza subjetiva das ontologias que utilizam, é possível que tenham diferentes interesses relativamente ao processo de alinhamento e que, inclusive, recorram aos serviços de mapeamento que considerem mais convenientes [1]. Diferentes matchers podem produzir resultados distintos e até mesmo contraditórios, criando-se assim conflitos entre os agentes. É necessário que se proceda então a uma tentativa de resolução dos conflitos existentes através de um processo de negociação, de tal forma que os agentes possam chegar a um consenso relativamente às correspondências que devem ser utilizadas na tradução de mensagens a trocar. A resolução de conflitos é considerada uma métrica de grande importância no que diz respeito ao processo de negociação [2]: considera-se que existe uma maior confiança associada a um alinhamento quanto menor o número de conflitos por resolver no processo de negociação que o gerou. Desta forma, um alinhamento com um número elevado de conflitos por resolver apresenta uma confiança menor que o mesmo alinhamento associado a um número elevado de conflitos resolvidos. O processo de negociação para que dois ou mais agentes gerem e concordem com um alinhamento é denominado de Negociação de Mapeamentos de Ontologias. À data existem duas abordagens propostas na literatura: (i) baseadas em Argumentação (e.g. [3] [4]) e (ii) baseadas em Relaxamento [5] [6]. Cada uma das propostas expostas apresenta um número de vantagens e limitações. Foram propostas várias formas de combinação das duas técnicas [2], com o objetivo de beneficiar das vantagens oferecidas e colmatar as suas limitações. No entanto, à data, não são conhecidas experiências documentadas que possam provar tal afirmação e, como tal, não é possível atestar que tais combinações tragam, de facto, o benefício que pretendem. O trabalho aqui apresentado pretende providenciar tais experiências e verificar se a afirmação de melhorias em relação aos resultados das técnicas individuais se mantém. Com o objetivo de permitir a combinação e de colmatar as falhas identificadas, foi proposta uma nova abordagem baseada em Relaxamento, que é posteriormente combinada com as abordagens baseadas em Argumentação. Os seus resultados, juntamente com os da combinação, são aqui apresentados e discutidos, sendo possível identificar diferenças nos resultados gerados por combinações diferentes e possíveis contextos de utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fuzzy logic controllers (FLC) are intelligent systems, based on heuristic knowledge, that have been largely applied in numerous areas of everyday life. They can be used to describe a linear or nonlinear system and are suitable when a real system is not known or too difficult to find their model. FLC provide a formal methodology for representing, manipulating and implementing a human heuristic knowledge on how to control a system. These controllers can be seen as artificial decision makers that operate in a closed-loop system, in real time. The main aim of this work was to develop a single optimal fuzzy controller, easily adaptable to a wide range of systems – simple to complex, linear to nonlinear – and able to control all these systems. Due to their efficiency in searching and finding optimal solution for high complexity problems, GAs were used to perform the FLC tuning by finding the best parameters to obtain the best responses. The work was performed using the MATLAB/SIMULINK software. This is a very useful tool that provides an easy way to test and analyse the FLC, the PID and the GAs in the same environment. Therefore, it was proposed a Fuzzy PID controller (FL-PID) type namely, the Fuzzy PD+I. For that, the controller was compared with the classical PID controller tuned with, the heuristic Ziegler-Nichols tuning method, the optimal Zhuang-Atherton tuning method and the GA method itself. The IAE, ISE, ITAE and ITSE criteria, used as the GA fitness functions, were applied to compare the controllers performance used in this work. Overall, and for most systems, the FL-PID results tuned with GAs were very satisfactory. Moreover, in some cases the results were substantially better than for the other PID controllers. The best system responses were obtained with the IAE and ITAE criteria used to tune the FL-PID and PID controllers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Química – Ramo Optimização Energética na Indústria Química

Relevância:

10.00% 10.00%

Publicador:

Resumo:

WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As caldeiras são equipamentos de extrema importância na maioria das indústrias portuguesas. É prática frequente os projectos de caldeiras possuírem apenas cálculos de materiais ou estruturais, nunca abordando as questões térmicas das mesmas. Neste contexto surge o presente trabalho que teve como principal objectivo estudar e modelar o comportamento térmico de uma caldeira alimentada a biomassa florestal. A caldeira em estudo é uma caldeira tubos de fumo com ante-fornalha, alimentada a biomassa e com pressão de funcionamento de 10 bar. A primeira parte do trabalho consistiu no levantamento de toda a informação relativa aos aspectos construtivos da caldeira e as condições de operação da mesma, através da consulta do seu projecto. O estudo do comportamento térmico da caldeira foi dividido em 2 partes: a modelação do comportamento térmico na ante-fornalha seguido da modelação do comportamento térmico do feixe tubular. Na ante fornalha admitiu-se que o calor seria transferido do gás para as paredes da mesma por convecção e por radiação, tendo-se utilizado o Método de Hottel para modelar a transferência de calor por radiação. No feixe tubular a transferência de calor por radiação foi desprezada, tendo-se considerado apenas transferência de calor por condução e convecção entre os gases quentes e a água. Os resultados obtidos mostram que, na ante-fornalha, o peso da potência transferida por radiação (96%) é muito superior à potência transferida por convecção (4%), tendo-se obtido os valores de 384,8 kW e de 16,0 kW para a potência térmica transferida por radiação e por convecção, respectivamente. O valor obtido para a temperatura dos gases na ante-fornalha foi de 1085 K. No feixe tubular a potência térmica transferida por convecção foi de 2559 kW tendo-se obtido o valor de 240ºC para a temperatura de exaustão dos gases pela chaminé. As perdas para o exterior foram estimadas em 1,5 %. O balanço global de energia à caldeira indicou um peso para a potência transferida por convecção de 86,3% e para a potência transferida por radiação de 13,6%. O rendimento da caldeira foi calculado pelo método das perdas tendo-se obtido o valor de 39%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma nova tecnologia, os EDLC, também denominados por supercondensadores, tem-se tornado numa importante e aliciante área de interesse. Estes regem-se pelos mesmos princípios fundamentais dos condensadores clássicos, no entanto possibilitam receber capacidades superiores, devido a uma maior área de superfície e a um dielétrico menos espesso. Esta particularidade permite obter uma maior densidade energética, comparativamente com os condensadores clássicos e uma maior densidade de potência, comparativamente com as baterias. Consequentemente a utilização de supercondensadores tem aumentado, representando já uma alternativa fiável, segura e amiga do ambiente, em detrimento das baterias comuns. Assim, este projeto tem como principais objetivos, identificar os diferentes tipos de supercondensadores, apresentar as vantagens de cada tipo e explorar a sua resposta, quer no domínio das frequências quer no domínio dos tempos, e por fim modelá-los recorrendo a componentes elétricos clássicos, nomeadamente resistências e condensadores. A modelação foi realizada recorrendo ao MALTAB, através da função de minimização fminunc e foram construídos quatro modelos equivalentes, com o objetivo de modelar a resposta dos vários EDLC analisados. Por escassez de tempo o principal foco de análise recaiu sobre o EDLC de 0,022 F.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde sempre o Homem procurou automatizar tarefas repetitivas. Tanto na indústria como no sector doméstico ou de comércio estão constantemente a surgir novos equipamentos procurando aumentar o nível de automação de diversas tarefas. A necessidade de empresas criadoras de produtos inovadores se manterem concorrenciais obrigou à adopção de métodos de projecto e planeamento mais estruturados e eficientes que eliminem os desperdícios tanto de material como de tempo. Diversas construções em termos orçamentais e o aumento da procura de produtos de alta qualidade a baixo custo deu origem a um novo tipo de programas, os programas de simulação virtual. Tal como na indústria, também na investigação nas Instituições de Ensino Superior se procuram adoptar os métodos de trabalho mais eficientes possíveis. Uma parte dos programas de simulação robótica utilizados hoje em dia na investigação no Instituto Superior de Engenharia do Porto estão concebidos em linguagem C. Embora esta linguagem seja extremamente capaz, existem métodos mais adequados de simulação que aceleram o processo de modelação permitindo a visualização do movimento e simulação de diversas situações potencialmente criticas sem existir a necessidade de construção de um protótipo funcional do robô. Durante o último ano, este projecto permitiu construir um modelo de um robô quadrúpede num programa de simulação virtual chamado Simmechanics™. Embora haja já algum trabalho desenvolvido nesta área, constatou-se que a informação existente possuía algumas lacunas. Com o trabalho desenvolvido preparou-se esta dissertação que pretende clarificar algumas questões que surgem na modelação de um robô. Neste documento explica-se como modelar um robô de corpo flexível, modelar as pernas e as respectivas juntas da anca e do joelho assim como também se apresenta a modelação de um contacto com o solo recorrendo a um modelo descrito na literatura. Este documento foi escrito a pensar no leitor, procurando-se explicar de forma simples mas concisa os diversos passos necessários para construir um modelo virtual de um robô. O autor espera, desta forma, ajudar futuros colegas que pretendam trabalhar com o Simmechanics™ a mais facilmente se integrarem com o programa aumentando desta forma o declive da curva de aprendizagem e permitindo um maior aproveitamento desta ferramenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O BIM – Building Information Modeling – é um conceito de controlo e gestão de informação desenvolvida, entre diferentes especialidades e intervenientes envolventes, durante o ciclo de vida das construções. A utilização das tecnologias BIM, no ramo da Engenharia Mecânica e Civil, tem sido uma aposta constante, e cada vez mais concisa, nos projetos de construção. A justificação para a adoção destas metodologias mais eficientes, em substituição dos processos convencionais, prende-se com o facto desses processos convencionais, ainda hoje, apresentarem muitas dificuldades e problemas associados, por exemplo, à falta de comunicação entre os intervenientes e ao ineficiente controlo na gestão de projetos. O objetivo desta dissertação centra-se na análise da interoperabilidade de softwares BIM, ou seja, na verificação da viabilidade de exportação de dados dos modelos produzidos, entre as ferramentas BIM. Para este campo de ação contribuirá a análise da passagem de informação, relativa ao modelo de uma Nave Industrial modelada, em alguns dos softwares BIM, correntemente mais utilizados. O conhecimento adquirido com a modelação do caso de estudo do presente trabalho irá permitir identificar algumas lacunas existentes ao nível da falta de recomendações práticas que sirvam de orientação na modelação recorrendo a ferramentas informáticas BIM-compatíveis. Assim, a base deste trabalho consiste na criação de uma série de recomendações ou de um roteiro de modelação em específico para a disciplina de estruturas enquanto área de aplicação concreta do estudo efetuado. Nesse sentido, a proposta deste trabalho é de apresentar alguns critérios de modelação onde são definidos os elementos a modelar em cada fase do projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A informação contabilística constitui um dos pilares fundamentais para a formação de juízos e tomada de decisões empresariais e, para isso, deve cumprir os requisitos de qualidade, objectividade, transparência, rigor, responsabilidade e independência. Para o efeito, a informação é elaborada com base em políticas e critérios contabilísticos, conceitos e pressupostos subjacentes à “Estrutura Conceptual” dos normativos emitidos por organismos nacionais e internacionais, e em princípios sustentados no “Governo das Sociedades” e respectivas recomendações, considerando as necessidades dos seus utilizadores. O presente estudo tem por objectivo explorar a relação entre a Informação Financeira Divulgada e o Modelo de Governação das Sociedades e fornecer uma melhor e mais profunda compreensão das características das sociedades que influenciam a divulgação. Neste estudo, foi utilizada uma amostra de empresas portuguesas não financeiras, emitentes de acções, que se encontram admitidas a negociação no mercado de cotações oficiais da New York Stock Exchange, adiante designada por NYSE Euronext Lisbon, no período de 2010 a 2012. Os elementos foram recolhidos através da leitura e análise dos Relatórios e Contas Anuais publicados e por consulta da base de dados DataStream. Os dados obtidos foram analisados através de modelos de regressão linear múltipla, considerando o modelo de dados em painel, tendo sido utilizado o programa de estatística Gnu Regression, Econometrics and Time- Series Library (GRETL), versão 1.9.92 (Sep 20, 2014), embora, para a análise das correlações, tenha sido utilizado, também, o programa estatístico Statistical Package for the Social Sciences, adiante denominado IBM SPSS Statistics, versão 19. A análise dos resultados indica que as principais determinantes subjacentes à divulgação relacionada com o índice de cumprimento sobre o Governo das Sociedades são as variáveis explicativas relacionadas com: (i) dimensão da empresa; (ii) endividamento; (iii) concentração accionista; (iv) negociabilidade; (v) percentagem de acções detidas pelos administradores executivos; (vi) rendibilidade do investimento total; e (vii) remuneração dos administradores não executivos. Os testes efectuados mostram que os resultados alcançados são robustos para modelar especificações e problemas de existência de multicolinearidade. O software utiliza o método de Arellano (2004) com a finalidade de corrigir o problema de possibilidade de existência de heteroscedasticidade e de autocorrelação. Nesta base, verificaram-se todas as situações que poderiam criar obstáculos e causar enviesamento nos estimadores e definições das variáveis. Relativamente ao índice global de divulgação dos riscos e incertezas, concluiu-se que é provavelmente determinado por diferentes variáveis. Esta investigação enriquece a discussão sobre as relações entre a divulgação da informação e a estrutura do Governo das Sociedades. Assim, o estudo pode ser útil para accionistas, administradores, credores e outros investidores, quanto à reflexão da adequação da informação divulgada nos relatórios e contas anuais, com a finalidade da tomada de decisões idóneas e fundamentadas. Porém, é essencial que os reguladores incentivem as empresas a adequarem melhor as práticas de governo e a criarem mais mecanismos de forma a alcançar um maior nível de independência e uma adopção mais ajustada das recomendações sobre o Governo das Sociedades.