942 resultados para Prognóstico baseado em dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese visa estudar um procedimento obstétrico clínico rotineiro, recomendado por várias sociedades obstétricas no mundo, inclusive a Federação Brasileira das Sociedades de Ginecologia e Obstetrícia e o Ministério da Saúde do Brasil, a medida de altura uterina. A recomendação é medir a distância entre o bordo superior da sínfise púbica e o fundo do útero (com fita inextensível, marcada em centímetros) a cada consulta pré-natal, e cotejar o valor obtido a valores de referência, determinados por uma curva padrão definida por percentis de altura uterina obtidos ao longo da gravidez. O objetivo desse procedimento é detectar anormalidades no crescimento fetal, seja crescimento excessivo ou insuficiente. O crescimento fetal excessivo está associado a aumento na morbidade perinatal, por aumento dos casos de hipóxia e de traumatismo secundários a parto distócico, além de maior risco de obesidade e diabetes tipo 2 na vida adulta. Também eleva a morbidade materna, por aumento no número de cesáreas e partos instrumentados. A importância da detecção de gestações com crescimento fetal insuficiente reside nos índices aumentados de mortalidade e de morbidade nesses recém-nascidos, no período perinatal, neonatal e pós-natal, até à vida adulta. Método de baixos custo e complexidade, não invasivo e aplicável durante a consulta pré-natal usual, a medida da altura uterina ao longo da gestação tem algumas das características desejáveis em um teste de rastreamento. Entretanto, seu desempenho na identificação das anormalidades do crescimento fetal intra-uterino tem achados bastante desiguais na literatura. Assim como grande parte das características fetais, a altura uterina é diretamente dependente do tempo de gestação e, portanto, erros na datação da gestação podem interferir no desempenho do método como indicador de anormalidade de crescimento intra-uterino Esta tese, baseada em dados do Estudo Brasileiro do Diabetes Gestacional (EBDG), avalia o impacto clínico da medição rotineira da altura uterina em gestantes que fazem acompanhamento pré-natal no Sistema Único de Saúde (SUS). No primeiro artigo, descrevemos a distribuição das medidas de altura uterina a cada semana de gestação obtidas no EBDG e a confrontamos com a distribuição descrita no estudo do Centro Latino-Americano de Perinatologia (CLAP). Determinamos também o desempenho diagnóstico das duas distribuições na identificação de recém-nascidos pequenos e grandes para a idade da gestação nas gestantes do estudo brasileiro. No segundo artigo, derivam-se e testam-se regras clínicas para a detecção pré-natal de recém-nascidos pequenos para a idade gestacional, agregando à medida da altura uterina outras características clínicas associadas a esse desfecho da gravidez. Utiliza-se a divisão randômica da população estudada em duas coortes, uma para derivação das regras clínicas de predição e a outra para a testagem e validação dessas regras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hipertrofia ventricular esquerda é um importante fator de risco em doença cardiovascular e pode ser responsável por parte do elevado risco cardiovascular associado a diabetes. Apesar de que o estresse hemodinâmico seja classicamente indicado como causa da injúria miocárdica que leva ao remodelamento, a injúria associada aos fatores neuro-humorais e a sinalização celular através da ativação imuno-inflamatória também desempenham um papel, acompanhando os mecanismos recentemente descritos na síndrome metabólica, particularmente na obesidade, onde a ativação do sistema imune inato leva a uma resposta inadequada crônica mediada por citocinas em diversos sistemas corpóreos. A ecocardiografia tem sido usada para identificar anormalidades da estrutura cardíaca, porém, variações metodológicas e os diversos ajustes para os determinantes da massa ventricular como idade, sexo, tamanho corporal e outros correlatos clínicos são motivo de debate, assim como a definição dos estados de anormalidade, tanto para hipertrofia ventricular esquerda, como para outras medidas da estrutura ventricular. Em uma amostra populacional de 1479 Afro- Americanos do Estudo ARIC, investigamos de forma estratificada e multivariada as associações independentes entre diabetes e as alterações estruturais do ventrículo esquerdo, definidas por hipertrofia ventricular, aumento da espessura relativa e padrões geométricos anormais. Encontramos prevalências elevadas dea alterações estruturais nos indivíduos com diabetes. Diabetes associou-se com hipertrofia ventricular em ambos os sexos e com espessura parietal aumentada e padrões geométricos anormais nas mulheres. Na maior parte dos modelos, as associações com diabetes foram minimizadas com os ajustes para obesidade, sugerindo que o impacto da obesidade sobre as alterações estruturais vistas em diabetes pode ser mediado por fatores outros do que a hiperglicemia. Essas novas evidências estão em sintonia com o conhecimento contemporâneo descrito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A parte introdutória desta monografia expoe, su cintamente, considerações relativas à importância e ao papel da Agropecuária Nacional e, antecedentes históricos de seu processo de desenvolvimento, seguidos do relato de ten dências desse processo. caracterização e importância do te ma escolhido, ohjetivos básicos do Estudo e uma síntese das limitações e dificuldades encontradas para a execução do tra balho. O Capítulo 1 é destinado, na primeira parte, ao desenvolvimento da base conceitual utilizada: alguns pressu postos teóricos extraídos de conceitos, definições e características dos Sistemas, desenvolvidos pela Teoria Geral dos Sistemas. A segunda parte relata os procedimentos metodoló gicos utilizados. o segundo Capítulo consta de uma interpretação e análise dos dados e informações obtidos através do estu do de campo. O Capítulo 3 propõe um Modelo Operativo para o Setor Público Agropecuário do Estado da Paraíba, baseado na análise do estudo de campo, diretrizes e tendências do processo de modernização do Setor, em curso naquele Estado. Finalmente, no Capítulo 4 apresenta-se um conjunto de conclusões gerais e específicas relacionadas com as áreas técnicas do Setor Público Agrícola paraibano, fun damentadas em uma análise correlativa de aspectos básico observados no Setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o presente tema - "Agressão no jogo de futebol” - teve primeiramente como objetivo investigar o problema da agressão no esporte popular brasileiro. Assim sendo o trabalho oferece uma visão introdutória, exploratória e descritiva dos aspectos principais com relação ao problema. Desta forma a análise está ligada a várias opiniões e posições que já foram expressas por um número de autores, e esta nossa análise está intimamente ligada a tudo que já foi publicado sobre este tema. Contudo, apresentamos uma ligeira inovação, uma contribuição muito especial. Ao dissertarmos de uma maneira, a mais clara possível, nos limitamos num ponto especifico que é o de vivermos a realidade do jogo de futebol. Cuidadosamente, conduzimos o tema principal do trabalho em direção ao papel fundamental dos dirigentes, treinadores, médicos desportistas, juizes de campo, preparadores físicos, advogados desportistas e psicólogos. Em suma, nós conduzimos nossa atenção ,para as pessoas diretamente envolvidas com a prática do esporte em geral na sociedade contemporânea, assim como da luta para combater os problemas cria dos pela agressão, aspecto particularmente relevante para os jogadores de futebol em situações de forte competição. Na segunda parte do trabalho, nós tivemos a oportunidade de fazer alguns contatos diretos 'e pessoais com vários jogadores conhecidos do futebol no Brasil, assim como outros tipos de profissionais que lidam com este esporte. Podemos dizer, que tal ordem de contatos foi desenvolvida através de, várias observações não só na hora dos treinos, mas também durante um número de jogos eliminatórios (finais), juntamente com algumas entrevistas individuais que depois eles concederam. Quando todas as peças foram colocadas nos próprios lugares é que o quadro ficou mais completo, expondo os fatores mútuos e interativos nos jogos. Falando de maneira geral, o modelo de melhor compreensão proposto para este trabalho foi detalhado de forma que pode ser baseado na observação direta da pesquisa de campo mas com um número especifico de dados para este tipo de· pesquisa, cujos principais objetivos foram as simples situações corriqueiras (significatiyas). Com este material, em nossas mãos, nós pudemos reformular algumas questões vitais que poderiam enriquecer o dia-a-dia da psicologia neste campo de conhecimento. Sem dúvida, essa ênfase atual da questão da agressão - e um problema crescente. O significado do combate a agressão não é fácil, digamos, de enquadrar numa simples elaboração de palavras. Na pesquisa que fizemos a conclusão é de que a agressão deve ser combatida desde muito cedo nos estágios das "escolas de futebol".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho desenvolvemos uma metodologia numérica para a solução do escoamento em torno de um vórtice. Como a análise completa deste tipo de fluxo não é uma tarefa fácil, simplificações quanto ao escoamento e ao método numérico são necessárias. Também investigamos o comportamento das soluções das equações governantes (Navier-Stokes) quando o tempo tende ao infinito. Nesse sentido, dividimos este trabalho em duas partes: uma numérica e outra analítica. Com o intuito de resolver numericamente o problema, adotamos o método de diferenças finitas baseado na formulação incompressível das equações governantes. O método numérico para integrar essas equações é baseado no esquema de Runge- Kutta com três estágios. Os resultados numéricos são obtidos para cinco planos bidimensionais de um vórtice com números de Reynolds variando entre 1000 e 10000. Na parte analítica estudamos taxas de decaimento das soluções das equações de Navier-Stokes quando os dados iniciais são conhecidos. Também estimamos as taxas de decaimento para algumas derivadas das soluções na norma L2 e comparamos com as taxas correspondentes da solução da equação do calor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução – Destaca o problema da escolha do tempo e da densidade ótimos para construir um imóvel, dadas as restrições das leis de zoneamento. Objetivo – Verificar se há um prêmio pela opção de se esperar para construir um imóvel, analisar a influência dos CEPACs no custo de construção. Métodos – O modelo amplia as inferências de Quigg (1993) e testa o modelo de Williams (1991). Os dados utilizados são da Embraesp, com 3.207 lançamentos imobiliários; da Prefeitura de São Paulo, com 259.021 imóveis; do ZAP, com 22.073 imóveis; no período de 2005 a 2011. Resultados – O valor do terreno vago baseado no modelo de opções reais excedeu o valor observado em todos os cenários, variando entre 16,6% e 61%. O maior prêmio obtido foi para imóveis comerciais (37,9%), seguido pelo prêmio para apartamentos (34,5%) e para casas (23,9%). Conclusões – Há um prêmio para se esperar para construir um imóvel. Ao se utilizar os CEPACs como instrumento para aumentar a densidade de construção, amplia-se o custo de construção do imóvel. Entretanto, a ampliação da densidade é limitada pelo aumento do custo adicional de construção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Business groups são formas organizacionais diversificadas comuns em países emergentes (Khanna; Yafeh, 2007; Schneider, 2008). Várias pesquisas tentam explicar a formação dos business groups e várias são as abordagens teóricas: institucional / custos de transação (Leff, 1978; Khanna & Palepu, 2000), economia política (Schneider, 2008), sociológica (Granovetter, 1994), da agência (Yu, Lu, Bruton, 2007) e resource-based view (Guillén, 2000). As teorias apresentam mecanismos para a existência desse tipo de organização nas economias emergentes. No Brasil, o governo tem grande influência na formação e desenvolvimento dos grupos, assim como em outras economias emergentes. A teoria de diversificação (Hoskisson, et al., 2005) versa sobre a reestruturação dos grupos e tem como foco a diversificação dos grupos. Baseado na teoria de custos de transação, a teoria de reestruturação argumenta que com a melhoria das instituições, os grupos tendem a diminuir seu poder econômico. Já a abordagem da economia política deixa claro que os grupos influenciam e são influenciados pelo governo. Uma das formas de conexão política entre os grupos e o governo é a doação às campanhas políticas. Esse estudo tem por objetivo, por conta disso, analisar a influência da conexão política, via doações às campanhas, na reestruturação de ativos dos grupos econômicos no Brasil. A abordagem da economia política é central nesse estudo para efetuar essa análise. Os dados dos grupos foram obtidos do anuário Valor Grandes Grupos (jornal Valor Econômico) e a amostra final contou com 760 observações ao longo de 8 anos dos grupos econômicos no Brasil. A análise foi feita sob modelos de efeito fixo controlando para fatores econômicos/financeiros e institucionais. Os resultados trazem forte relacionamento positivo das conexões políticas com o crescimento dos grupos econômicos no Brasil. Questões levantadas a partir desse estudo sugerem que no Brasil os grupos crescem para aumentar sua força política.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho consiste em documentar o Sistema Orçamentário do Banco Nacional de Desenvolvimento Econômico e Social - BNDES - e do Banco de Desenvolvimento de Minas Gerais - BDMG - verificando: a) Quais são as principais vantagens do orçamento para esses bancos? b} Quais são as principais limitações do orçamento para esses bancos? c ) Qual é a relação existente entre a estrutura organizacional e o processo orçamentário? d) Qual é o processo de elaboração e acompanhamento do orçamento nesses bancos? e) Quais são as funções do orçamento nesses bancos? Existe conflito entre elas? O estudo foi realizado à luz dos fundamentos teóricos existentes na literatura sobre orçamento, tendo sido pesquisadas obras de autores nacionais e estrangeiros, o que possibilitou a construção de um quadros de referência que norteou a (Cap. II). A metodologia adotada é a de estudo de casos e se encontra evidenciada no Cap. III. Os dados necessários à descrição dos casos estudados (Cap. IV e Cap. V), foram obtidos de duas formas: a) aplicação de questionário contendo questões na sua maioria abertas e b) análise de documentos. Baseado nos resultados obtidos no trabalho de campo, pode-se analisar os sistemas orçamentários dos bancos de desenvolvimento pesquisados, sem perder de vista as sugestões dos autores cujas obras foram consultadas, que nos permitiu chegar a importantes conclusões (Cap.VI) de que, em termos gerais, os sistemas orçamentários dos bancos em questão, projetados com base na sua nova estrutura organizacional, se assemelham com os sistemas orçamentários sugeridos nos modelos normativos encontrados na literatura pesquisada.