958 resultados para Generalized quadrangles
Resumo:
A literatura internacional que analisa os fatores impactantes das transações com partes relacionadas concentra-se no Reino Unido, nos EUA e no continente asiático, sendo o Brasil um ambiente pouco investigado. Esta pesquisa tem por objetivo investigar tanto os fatores impactantes dos contratos com partes relacionadas, quanto o impacto dessas transações no desempenho das empresas brasileiras. Estudos recentes que investigaram as determinantes das transações com partes relacionadas (TPRs), assim como seus impactos no desempenho das empresas, levaram em consideração as vertentes apresentadas por Gordon, Henry e Palia (2004): (a) de conflitos de interesses, as quais apoiam a visão de que as TPRs são danosas para os acionistas minoritários, implicando expropriação da riqueza deles, por parte dos controladores (acionistas majoritários); e (b) transações eficientes que podem ser benéficas às empresas, atendendo, desse modo, aos objetivos econômicos subjacentes delas. Esta pesquisa apoia-se na vertente de conflito de interesses, com base na teoria da agência e no fato de que o cenário brasileiro apresenta ter como característica uma estrutura de propriedade concentrada e ser um país emergente com ambiente legal caracterizado pela baixa proteção aos acionistas minoritários. Para operacionalizar a pesquisa, utilizou-se uma amostra inicial composta de 70 empresas com ações listadas na BM&FBovespa, observando o período de 2010 a 2012. Os contratos relacionados foram identificados e quantificados de duas formas, de acordo com a metodologia aplicada por Kohlbeck e Mayhew (2004; 2010) e Silveira, Prado e Sasso (2009). Como principais determinantes foram investigadas proxies para captar os efeitos dos mecanismos de governança corporativa e ambiente legal, do desempenho das empresas, dos desvios entre direitos sobre controle e direitos sobre fluxo de caixa e do excesso de remuneração executiva. Também foram adicionadas variáveis de controle para isolar as características intrínsecas das firmas. Nas análises econométricas foram estimados os modelos pelos métodos de Poisson, corte transversal agrupado (Pooled-OLS) e logit. A estimação foi feita pelo método dos mínimos quadrados ordinários (MQO), e para aumentar a robustez das estimativas econométricas, foram utilizadas variáveis instrumentais estimadas pelo método dos momentos generalizados (MMG). As evidências indicam que os fatores investigados impactam diferentemente as diversas medidas de TPRs das empresas analisadas. Verificou-se que os contratos relacionados, em geral, são danosos às empresas, impactando negativamente o desempenho delas, desempenho este que é aumentado pela presença de mecanismos eficazes de governança corporativa. Os resultados do impacto das medidas de governança corporativa e das características intrínsecas das firmas no desempenho das empresas são robustos à presença de endogeneidade com base nas regressões com variáveis instrumentais.
Resumo:
O soro de leite é um subproduto da fabricação do queijo, seja por acidificação ou por processo enzimático. Em condições ideais, a caseína do leite se agrega formando um gel, que posteriormente cortado, induz a separação e liberação do soro. É utilizado de diversas formas em toda a indústria alimentícia, possui rica composição em lactose, sais minerais e proteínas. A desidratação é um dos principais processos utilizados para beneficiamento e transformação do soro. Diante disto, o objetivo deste trabalho foi avaliar a influência dos métodos de secagem: liofilização, leito de espuma (nas temperaturas de 40, 50, 60, 70 e 80ºC) e spray-dryer (nas temperaturas de 55, 60, 65, 70 e 75ºC), sobre as características de umidade, proteína, cor e solubilidade do soro, bem como estudar o seu processo de secagem. O soro foi obtido e desidratado após concentração por osmose reversa, testando 11 tratamentos, em 3 repetições, utilizando um delineamento inteiramente casualizado. Os resultados demonstraram que o modelo matemático que melhor se ajustou foi o modelo de Page, apresentado um coeficiente de determinação ajustado acima de 0,98 e erro padrão da regressão em todas as temperaturas abaixo de 0,04 para o método por leito de espuma. Para o método de liofilização os respectivos valores foram 0,9975 e 0,01612. A partir disso, pode-se elaborar um modelo matemático generalizado, apresentando um coeficiente de determinação igual a 0,9888. No caso do leito de espuma, observou-se que à medida que se aumenta a temperatura do ar de secagem, o tempo de secagem diminui e os valores do coeficiente de difusão efetiva aumentam. Porém, a redução no tempo de secagem entre os intervalos de temperatura, diminui com o aumento da mesma. A energia de ativação para a difusão no processo de secagem do soro foi de 26,650 kJ/mol e para todas as avaliações físico-químicas e tecnológicas, a análise de variância apresentou um valor de F significativo (p<0,05), indicando que há pelo menos um contraste entre as médias dos tratamentos que é significativo.
Resumo:
Esta dissertação propõe um algoritmo do Controlador Preditivo Generalizado (GPC) com horizonte de controle igual a um para ser aplicado em plantas industriais com modelos variantes no tempo, simples o su ficiente para ser implementado em Controlador Lógico Programável (PLC). A solução explícita do controlador é obtida em função dos parâmetros do modelo e dos parâmetros de sintonia do GPC (horizonte nal de predição hp e o fator de supressão do sinal de controle ), além das entradas e saídas presentes e passadas. A sintonia do fator de supressão e do horizonte de previsão GPC é feita através do lugar das raízes da equação característica do sistema em malha fechada, sempre que os parâmetros do modelo da planta industrial (estável ou instável em malha aberta) forem modificados.
Resumo:
What sort of component coordination strategies emerge in a software integration process? How can such strategies be discovered and further analysed? How close are they to the coordination component of the envisaged architectural model which was supposed to guide the integration process? This paper introduces a framework in which such questions can be discussed and illustrates its use by describing part of a real case-study. The approach is based on a methodology which enables semi-automatic discovery of coordination patterns from source code, combining generalized slicing techniques and graph manipulation
Resumo:
Over the last decade component-based software development arose as a promising paradigm to deal with the ever increasing complexity in software design, evolution and reuse. SHACC is a prototyping tool for component-based systems in which components are modelled coinductively as generalized Mealy machines. The prototype is built as a HASKELL library endowed with a graphical user interface developed in Swing
Resumo:
This study aims to identify and prioritize the stakeholders involved in making decisions in a sports organization. A multiple linear regression analysis was used to assess the influence of the attributes of power, legitimacy and urgency on the salience of the various stakeholders. The results showed a convergence of external and internal decision makers' perceptions, concerning the three main stakeholder groups: top management, sponsors and member association. Pearson correlations identified four types of stakeholder: definitive, dangerous, demanding and non-stakeholders. A generalized differentiation was also found in stakeholder classification, regarding evaluation of attributes, between external and internal decision makers. In addition, the study suggests the success of organizations' management will depend on correct identification of stakeholders and consequent assessment of their relevance, in order to highlight who should get priority, and how, in strategic decision making.
Resumo:
Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.
Resumo:
RESUMO: Na sociedade da comunicação e da informação, as escolas ainda não conseguiram compreender o seu papel de facilitadoras do conhecimento que o mundo está promovendo entre a realidade da escola e o interesse do educando. Um dos fatores para isso é o crescimento das escolas ao longo dos séculos e a necessidade de superação decorrente do alargamento da educação, que têm gerado um conhecimento complexo que descreve as reflexões e conscientizações sobre o nosso próprio desenvolvimento humano e sobre a nossa participação no mundo em que estamos vivendo. Essas complexidades possibilitam mudanças, principalmente nas questões epistemológicas e paradigmáticas, que proporcionaram outra forma de conceber o conhecimento e os saberes, chamado de “ecologia dos saberes”. Nesse contexto, existe a necessidade de se fazer uma leitura crítica na e da escola e de sua participação junto à comunidade escolar, objetivando minimizar as relações de dominação, de normatizações, de disciplinamento, de concentração de poder, para direcionar a educação num processo emancipatório, democrático, consciente das mudanças, de forma a incluir todos os saberes possíveis para acompanhar e valorizar a realidade escolar, através da participação de alta intensidade na construção e reconstrução do seu projeto político pedagógico. Para tanto, iremos discorrer sobre três escolas, a partir da análise de cada uma dentro da realidade construída por elas, buscando demonstrar que as escolas, dentro dos seus contextos educacionais, possuem diferentes realidades que não podem ser generalizadas, mas que devem ser compreendidas no sentido de que sejam promovidas a autonomia escolar e o fortalecimento da democracia educacional, objetivando a superação das condições atuais da educação para se adequar à sociedade e ao mundo atual. ABSTRACT: In the present society of communication and information, schools have not yet been able to understand their roles as facilitators of the knowledge that the world is promoting between the reality of school and the interest of the learner. One of the reasons for that is the growth of schools along the centuries as well as their constant need for getting over old problems, due to the expansion of education. These questions lead to a complex knowledge which describes reflections on our own human development and on our participation in the world we live in. These complexities lead to changes, especially in epistemological and paradigmatic questions, making it possible for new ways of conceiving knowledge, known as “ecology of knowledge”. In this context, there is a need for making a critical reading about school and its participation in the school community, with the objective to minimize the relations of domination, power concentration and discipline and to direct education towards a process of emancipation and democracy, in which there is conscience of the necessary changes to include all possible knowledge as a way to value the reality of school through a high intensity participation in the construction and reconstruction of its political and pedagogical project. Thus, this study will discuss three schools, basing this discussion on the analysis of each school within the reality built by them, trying to demonstrate that, within their educational contexts, each one possesses different realities that cannot be generalized. These differences must, however, be understood, in order to allow the promotion of school autonomy and the strengthening of educational democracy with the objective to get over education`s present conditions and adjust them to society and to the present world.
Resumo:
Em estudos de acessibilidade, e não só, são muito úteis um tipo de estruturas que se podem obter a partir de uma rede, eventualmente multi-modal e parametrizável: as chamadas “áreas de serviço”, as quais são constituídas por polígonos, cada qual correspondente a uma zona situada entre um certo intervalo de custo, relativamente a uma certa “feature” (ponto, multiponto, etc.). Pretende-se neste estudo obter, a partir de áreas de serviço relativas a um universo de features, áreas de serviço relativas a subconjuntos dessas features. Estas técnicas envolvem manipulações relativamente complexas de polígonos e podem ser generalizadas para conjuntos de conjuntos e assim sucessivamente. Convém notar que nem sempre se dispõe da rede, podendo dispor-se das referidas estruturas; eventualmente, no caso de áreas de serviço, sob a forma de imagens (raster) a serem convertidas para formato vectorial.
Resumo:
This paper presents a new generalized solution for DC bus capacitors voltage balancing in back-to-back m level diode-clamped multilevel converters connecting AC networks. The solution is based on the DC bus average power flow and exploits the switching configuration redundancies. The proposed balancing solution is particularized for the back-to-back multilevel structure with m=5 levels. This back-to-back converter is studied working with bidirectional power flow, connecting an induction machine to the power grid.
Resumo:
We analyze generalized CP symmetries of two-Higgs doublet models, extending them from the scalar to the fermion sector of the theory. We show that, other than the usual CP transformation, there is only one of those symmetries which does not imply massless charged fermions. That single model which accommodates a fermionic mass spectrum compatible with experimental data possesses a remarkable feature. Through a soft breaking of the symmetry it displays a new type of spontaneous CP violation, which does not occur in the scalar sector responsible for the symmetry breaking mechanism but, rather, in the fermion sector.
Resumo:
The two-Higgs-doublet model can be constrained by imposing Higgs-family symmetries and/or generalized CP symmetries. It is known that there are only six independent classes of such symmetry-constrained models. We study the CP properties of all cases in the bilinear formalism. An exact symmetry implies CP conservation. We show that soft breaking of the symmetry can lead to spontaneous CP violation (CPV) in three of the classes.
Resumo:
This paper is an elaboration of the DECA algorithm [1] to blindly unmix hyperspectral data. The underlying mixing model is linear, meaning that each pixel is a linear mixture of the endmembers signatures weighted by the correspondent abundance fractions. The proposed method, as DECA, is tailored to highly mixed mixtures in which the geometric based approaches fail to identify the simplex of minimum volume enclosing the observed spectral vectors. We resort then to a statitistical framework, where the abundance fractions are modeled as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. With respect to DECA, we introduce two improvements: 1) the number of Dirichlet modes are inferred based on the minimum description length (MDL) principle; 2) The generalized expectation maximization (GEM) algorithm we adopt to infer the model parameters is improved by using alternating minimization and augmented Lagrangian methods to compute the mixing matrix. The effectiveness of the proposed algorithm is illustrated with simulated and read data.
Resumo:
We present new populational growth models, generalized logistic models which are proportional to beta densities with shape parameters p and 2, where p > 1, with Malthusian parameter r. The complex dynamical behaviour of these models is investigated in the parameter space (r, p), in terms of topological entropy, using explicit methods, when the Malthusian parameter r increases. This parameter space is split into different regions, according to the chaotic behaviour of the models.
Resumo:
Although stock prices fluctuate, the variations are relatively small and are frequently assumed to be normal distributed on a large time scale. But sometimes these fluctuations can become determinant, especially when unforeseen large drops in asset prices are observed that could result in huge losses or even in market crashes. The evidence shows that these events happen far more often than would be expected under the generalized assumption of normal distributed financial returns. Thus it is crucial to properly model the distribution tails so as to be able to predict the frequency and magnitude of extreme stock price returns. In this paper we follow the approach suggested by McNeil and Frey (2000) and combine the GARCH-type models with the Extreme Value Theory (EVT) to estimate the tails of three financial index returns DJI,FTSE 100 and NIKKEI 225 representing three important financial areas in the world. Our results indicate that EVT-based conditional quantile estimates are much more accurate than those from conventional AR-GARCH models assuming normal or Student’s t-distribution innovations when doing out-of-sample estimation (within the insample estimation, this is so for the right tail of the distribution of returns).