998 resultados para Visualização de dados
Resumo:
A energia necessária ao ser humano para realizar suas atividades, principalmente nos últimos dois séculos, aumentou drasticamente e tende a continuar aumentando. Para abastecer energeticamente estas atividades, o ser humano lançou mão, principalmente, de recursos fósseis e hídricos. Estes recursos, finitos ou limitados, são de abastecimento restrito devido a questões geopolíticas, econômicas e ambientais, motivos suficientes para que ocorra uma busca por alternativas a estas fontes energéticas. No entanto, o uso de biocombustíveis na substituição da gasolina tem sofrido criticas por ter sido relacionado à diminuição da oferta de alimentos e conseqüente aumento do preço destes. Diante deste contexto, pretende-se, com este trabalho, aprofundar a discussão do atual perfil de produção de cana-de-açúcar, maior fonte nacional de biocombustível na atualidade, no estado de São Paulo, maior produtor de cana do país, e sua relação com a produção de alimentos neste estado. Os dados brutos aqui trabalhados foram obtidos do IBGE – Produção Agrícola Municipal (PAM) e Produção da Pecuária Municipal (PPM) nos anos de 1990, 1999 e 2008 das regiões do Estado de São Paulo. Os mesmos foram convertidos a mapas para visualização da dinâmica produtiva agropecuária do Estado de São Paulo, utilizando-se o programa ArcMap®. As atividades agropecuárias selecionadas foram as de mais expressão produtiva: cana-de-açúcar, café, feijão, laranja, milho, soja, arroz, trigo, rebanho bovino e produção leiteira. A expansão da cana-de-açúcar impactou a área plantada de todas as atividades agropecuárias analisadas neste estudo. É possível inferir, com base nas informações coletadas e tratadas, que a produção canavieira tende a se expandir em áreas de pastagens. Observa-se que a expansão da área plantada de cana-de-açúcar no estado de São Paulo não reduziu a produção total das atividades agropecuárias estudadas. A tendência à mecanização da cana-de-açúcar pode colaborar para um zoneamento mais adequado das demais culturas em áreas impróprias à mecanização, diminuindo, assim, possíveis impactos na produção de alimentos. Deve-se considerar a dinâmica do setor agrícola ao longo de períodos longos, para que pequenos aumentos ou flutuações que ocorrem de maneira natural não sejam atribuídos a lavouras destinadas aos biocombustíveis. Na experiência do estado de São Paulo conseguiu-se observar que a questão é mais complexa do que se imaginava no início da proposta deste projeto. Os resultados analisados da possível coexistência entre a produção de biocombustíveis e alimentos não podem ser garantidos para outras regiões do Brasil. Empiricamente, é possível inferir que produzir biocombustíveis e alimentos não é antagônico e, sim, potencialmente aplicável no modelo agrícola brasileiro. No entanto, fica a sugestão de aprofundar esta proposta de estudo com utilização de modelos econométricos e estatísticos para a validação científica do estudo ora apresentado.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
Esta dissertação de mestrado tem o objetivo de estudar o efeito suspensivo do recurso de apelação e seus reflexos no sistema jurídico brasileiro. Com efeito, busca-se analisar as possíveis consequências da supressão do próprio efeito suspensivo sobre o tempo de duração dos processos e quanto a possível insegurança jurídica causada pela ausência da suspensão dos julgados de primeira instância. Sustenta-se neste trabalho que a supressão do efeito suspensivo pode ser uma proposta para aumentar a celeridade na tramitação dos processos no Brasil, sem causar problemas de segurança jurídica. Em primeiro lugar, descreve-se o problema de investigação e suas proposições. O primeiro capítulo apresenta a judicialização das relações sociais e, por conseguinte, a multiplicação do número de ações distribuídas e a crescente exigência pela efetividade da prestação jurisdicional. Neste mesmo capítulo o trabalho se ocupa em apreciar dos dados obtidos junto ao Tribunal de Justiça do Rio de Janeiro e com a análise qualitativa de casos típicos que demonstram o uso do efeito suspensivo tão somente para procrastinar o tempo de duração do processo bem como para barganhar um possível acordo vantajoso para o devedor. Em seguida, apreciamos os Princípios constitucionais da Segurança Jurídica e da Efetividade e Celeridade da Prestação Jurisdicional indicando o marco teórico de cada princípio. O segundo capítulo descreve conceito de sentença e seus efeitos, levando-se em consideração as últimas reformas processuais. Após, estuda-se a suposta estabilidade do sistema jurídico com a aplicação do efeito suspensivo, abordando o duplo grau de jurisdição como garantia constitucional. Posteriormente, indicamos a utilização estratégica do efeito suspensivo pelos atores (réus) do processo. O terceiro capítulo destina-se a apontar a legislação estrangeira e seus respectivos fundamentos jurídicos que influenciaram o nosso ordenamento jurídico, bem como a colaboração do autor em sugerir uma nova proposta de lei. Aproveitamos a oportunidade para trazer á baila as possíveis alterações oriundas do projeto do novo Código de Processo Civil e suas aspirações para dirimir os obstáculos que causam o longo tempo de duração dos processos. Por fim, apresentamos as considerações finais sobre a hipótese de supressão do efeito suspensivo como meio de alcançar a redução do tempo de duração do processo mantendo-se as garantias constitucionais da ampla defesa e do devido processo legal. Com efeito, demonstra-se que não há qualquer violação ao Princípio da Segurança Jurídica.
Resumo:
Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.
Resumo:
A contextualização está em torno de atividades voltadas ao planejamento em função da organização se estruturar sobre bases tecnológicas e sistemicas para gerir os seus processos. A teoria sistêmica aplicada à organização gera a necessidade eminente de integração. Este processo recorre à necessidade de planos estratégicos, onde as definições e metodologias aplicadas devem seguir-se à disciplina focada aos processos que requerem decisão e execução na busca de metas definidas. Neste aspecto, a implantação de sistemas de informação como ferramentas auxiliares aos processos decisórios, eXigem uma sistemática ou metodologia para visualização dos resultados e uso dos mesmos como retorno ao processo de alimentação dos dados, geradores de novas conjecturas decisórias. É necessário o conhecimento básico da organização, o contexto em que a mesma se enquadra, e de que forma deveremos atuar em seu desenvolvimento Para esta adota-se etapas onde analisamos o empreendimento, políticas ou diretrizes organizacionais, a metodologia de implantação sistemicas, associada às reais necessidades da empresa, bem como sua infraestrutura e capacidade de esforço
Resumo:
Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.
Resumo:
A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.
Resumo:
Hipertrofia ventricular esquerda é um importante fator de risco em doença cardiovascular e pode ser responsável por parte do elevado risco cardiovascular associado a diabetes. Apesar de que o estresse hemodinâmico seja classicamente indicado como causa da injúria miocárdica que leva ao remodelamento, a injúria associada aos fatores neuro-humorais e a sinalização celular através da ativação imuno-inflamatória também desempenham um papel, acompanhando os mecanismos recentemente descritos na síndrome metabólica, particularmente na obesidade, onde a ativação do sistema imune inato leva a uma resposta inadequada crônica mediada por citocinas em diversos sistemas corpóreos. A ecocardiografia tem sido usada para identificar anormalidades da estrutura cardíaca, porém, variações metodológicas e os diversos ajustes para os determinantes da massa ventricular como idade, sexo, tamanho corporal e outros correlatos clínicos são motivo de debate, assim como a definição dos estados de anormalidade, tanto para hipertrofia ventricular esquerda, como para outras medidas da estrutura ventricular. Em uma amostra populacional de 1479 Afro- Americanos do Estudo ARIC, investigamos de forma estratificada e multivariada as associações independentes entre diabetes e as alterações estruturais do ventrículo esquerdo, definidas por hipertrofia ventricular, aumento da espessura relativa e padrões geométricos anormais. Encontramos prevalências elevadas dea alterações estruturais nos indivíduos com diabetes. Diabetes associou-se com hipertrofia ventricular em ambos os sexos e com espessura parietal aumentada e padrões geométricos anormais nas mulheres. Na maior parte dos modelos, as associações com diabetes foram minimizadas com os ajustes para obesidade, sugerindo que o impacto da obesidade sobre as alterações estruturais vistas em diabetes pode ser mediado por fatores outros do que a hiperglicemia. Essas novas evidências estão em sintonia com o conhecimento contemporâneo descrito.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
O Planejamento Estratégico é peça da maior importância em uma Organização. Normalmente, após exaustivas reuniões e custos significativos em sua elaboração, ele é engavetado ou passa a ser uma peça decorativa. Esta dissertação apresenta a construção do Painel de Pilotagem para a utilização do Balanced Scorecard em empresa de autogestão, sem fins lucrativos, que atua na área de saúde. Para atingir os objetivos da pesquisa, o método foi o de pesquisa-ação. O Balanced Scorecard é uma ferramenta para a implantação da Estratégia Empresarial. A discussão, os debates da Estratégia, a sua demonstração e aplicação e acompanhamento via Painel de Pilotagem são um diferencial significativo para o acompanhamento da gestão. O alinhamento obtido nos dez meses de reuniões para a construção do Painel de Pilotagem, na empresa pesquisada, demonstra o interesse da organização em efetivar a implantação de seu Planejamento Estratégico. Com a implantação do BSC, a determinação dos rumos do negócio deixará de apoiar-se basicamente em análise de dados do passado, para demonstrar o desempenho do que foi feito na Empresasaúde RS, mas possibilitará, também, uma melhor projeção e visualização do futuro, para demonstrar o que deverá ser feito, o caminho a ser percorrido.
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
Este artigo analisa as séries de câmbio real brasileira calculada a partir de índices de preços ao consumidor para o Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo deste trabalho será o de avaliar a validade da Paridade do Poder de Compra (PPC) entre Brasil e seus parceiros comerciais através de diversos testes de raiz unitária (ADF, PP, KPSS, Kapetanios et al. (2003) e Bierens (1997)). O segundo objetivo consiste em investigar a hipótese de Taylor (2001) de que a meia-vida é superestimada quando os dados das séries são construídos a partir de um mecanismo de agregação temporal pela média e cujo processo gerador dos dados é linear. O trabalho apresenta elementos para confirmar o argumento de Taylor (2001) de que agregação temporal causa sérias distorções na estimação da meia-vida dos choques da PPC. Os resultados dos testes de raiz unitária lineares (PP e ADF) são desfavoráveis a PPC. Já o teste KPSS, de Kapetanios et al. (2003) e de Bierens (1997) aplicados a base sem agregação temporal sugerem um cenário bem mais favorável a PPC.