998 resultados para Aquisições de dados
Resumo:
Este trabalho, apresentado sob forma de dissertação, apesar de limitado .ao universo da gestão dos recursos materiais - GRM, representa uma tentativa para a criação de meios para medir a eficiência e a eficácia da função gerencial. Foram contemplados dois segmentos do universo da GRM: as relações comerciais com os fornecedores e as atividades de gerenciamento interno das diversas funções técnico-administrativas. Nestas, atingimos um amplo espectro, indo desde a infra-estrutura gerencial até os respectivos custos operacionais. Foram consideradas as seguintes funções: • Planejamento e Controle • Aquisição de Material • Controle e Distribuição de Material • Qualidade e Desenvolvimento o desempenho de cada uma das funções é avaliado por meio de indicadores, resultantes da combinação de dados operacionais, tais como: produção, venda, número de empregados envolvidos, valor das aquisições realizadas, custos de aquisição e de estocagem, valor dos estoques, carga transportada, custos de controle de qualidade e outros relacionados à GRM de uma organização. Consideramos que três orientações deste tabalho apresentam certo grau de originalidade. A primeira refere-se ao ajustamento dos valores monetários envolvidos, a fim de adequá-los às características inflacionárias da nossa economia. A segunda é o tratamento estatístico dos dados para que sejam reduzidas eventuais distorções. Assim, teremos indicadores próximos da realidade, baseados em números correntes e expurgados de variações aleatórias. A terceira orientação é o uso da informática para proporcionar a maior disseminação possível dos indicadores, seja na entrada de dados, no ajustamento, no cálculo, na armazenagem, na recuperação, no tratamento estatístico e na análise e criação de padrões de desempenho gerencial. Como anexo à dissertação, estamos incluindo disquetes em 3 1/2" e 5 1/4", contendo software interativo, denominado SIGMAT - Sistema de Indicadores para a Avaliação do Desempenho da Gestão dos Recursos Materiais. Este aplicativo executa todas as propostas apresentadas na presente dissertação.
Resumo:
Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.
Resumo:
A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.
Resumo:
Hipertrofia ventricular esquerda é um importante fator de risco em doença cardiovascular e pode ser responsável por parte do elevado risco cardiovascular associado a diabetes. Apesar de que o estresse hemodinâmico seja classicamente indicado como causa da injúria miocárdica que leva ao remodelamento, a injúria associada aos fatores neuro-humorais e a sinalização celular através da ativação imuno-inflamatória também desempenham um papel, acompanhando os mecanismos recentemente descritos na síndrome metabólica, particularmente na obesidade, onde a ativação do sistema imune inato leva a uma resposta inadequada crônica mediada por citocinas em diversos sistemas corpóreos. A ecocardiografia tem sido usada para identificar anormalidades da estrutura cardíaca, porém, variações metodológicas e os diversos ajustes para os determinantes da massa ventricular como idade, sexo, tamanho corporal e outros correlatos clínicos são motivo de debate, assim como a definição dos estados de anormalidade, tanto para hipertrofia ventricular esquerda, como para outras medidas da estrutura ventricular. Em uma amostra populacional de 1479 Afro- Americanos do Estudo ARIC, investigamos de forma estratificada e multivariada as associações independentes entre diabetes e as alterações estruturais do ventrículo esquerdo, definidas por hipertrofia ventricular, aumento da espessura relativa e padrões geométricos anormais. Encontramos prevalências elevadas dea alterações estruturais nos indivíduos com diabetes. Diabetes associou-se com hipertrofia ventricular em ambos os sexos e com espessura parietal aumentada e padrões geométricos anormais nas mulheres. Na maior parte dos modelos, as associações com diabetes foram minimizadas com os ajustes para obesidade, sugerindo que o impacto da obesidade sobre as alterações estruturais vistas em diabetes pode ser mediado por fatores outros do que a hiperglicemia. Essas novas evidências estão em sintonia com o conhecimento contemporâneo descrito.
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
Este artigo analisa as séries de câmbio real brasileira calculada a partir de índices de preços ao consumidor para o Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo deste trabalho será o de avaliar a validade da Paridade do Poder de Compra (PPC) entre Brasil e seus parceiros comerciais através de diversos testes de raiz unitária (ADF, PP, KPSS, Kapetanios et al. (2003) e Bierens (1997)). O segundo objetivo consiste em investigar a hipótese de Taylor (2001) de que a meia-vida é superestimada quando os dados das séries são construídos a partir de um mecanismo de agregação temporal pela média e cujo processo gerador dos dados é linear. O trabalho apresenta elementos para confirmar o argumento de Taylor (2001) de que agregação temporal causa sérias distorções na estimação da meia-vida dos choques da PPC. Os resultados dos testes de raiz unitária lineares (PP e ADF) são desfavoráveis a PPC. Já o teste KPSS, de Kapetanios et al. (2003) e de Bierens (1997) aplicados a base sem agregação temporal sugerem um cenário bem mais favorável a PPC.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
O presente trabalho analisa o efeito do trabalho infantil no desempenho escolar de alunos pertencentes à Rede Municipal de Ensino de São Paulo. Grande parte da literatura econômica mostra que, de maneira geral, o trabalho infantil tem um efeito negativo na proficiência escolar dos indivíduos. Nesta abordagem, o objetivo foi investigado a partir de dados de desempenho escolar, indicador de trabalho infantil e demais variáveis de controle. Tais valores sofrem alterações ao longo do tempo – entre 2007 e 2009. Para tanto, utilizou-se um modelo econométrico capaz de analisar uma estrutura de informações longitudinais, baseado em efeitos fixos. Considerando as duas proficiências analisadas, o trabalho infantil não influencia o desempenho acadêmico do aluno em Língua Portuguesa. Por outro lado, no caso da disciplina de Matemática, há uma relação positiva entre proficiência e o trabalho infantil. Os resultados deste trabalho apresentam um novo aspecto na relação entre trabalho infantil e desempenho acadêmico. Todavia tais conclusões foram obtidas sob uma esfera específica de análise: alunos matriculados (em 2007) na 2ª série do Ciclo II em escolas da rede municipal de ensino de São Paulo.
Resumo:
Este ensaio apresenta um estudo sobre a demanda por serviço de saúde no mercado de saúde suplementar utilizando, através de uma análise econométrica, modelos de regressão de dados de contagem para verificar os fatores monetários e não monetários que podem influenciar a quantidade demandada por este serviço, e determinar se há risco moral na determinação desta demanda, no caso de um modelo de visitas médicas de especialidade.
Resumo:
O objetivo desta pesquisa foi identificar a percepção dos empregados sobre a relação da legislação de compras com o desempenho da Embrapa Semiárido com base no critério de eficiência após a implantação do Pregão como uma nova modalidade licitatória. Foram realizadas pesquisas bibliográfica, documental, de campo, e para assegurar a validade das informações foi utilizada uma triangulação de técnicas de coleta de dados de análise documental, observação direta e entrevistas semiabertas, realizadas com empregados que atuam ou atuaram no Setor de Compras a mais de 10 anos e que fossem pregoeiros, e pesquisadores da Unidade, também com mais de 10 anos de experiência, que tivessem projetos aprovados com orçamento do Tesouro Nacional, com execução nos períodos anteriores e após à implantação do Pregão. De acordo com a documentação analisada e na ótica dos empregados do Setor, foi identificado que após a implantação do Pregão, a unidade tem conseguido economia de recursos nas contratações em média de 20% abaixo do valor de referência estabelecido nos Editais, o que poderia indicar eficiência. Entretanto, ficou evidente que o índice de erro nos processos passou a ser muito maior em relação aos processos realizados antes do pregão, e que apesar de tal modalidade ser apontada como benéfica, tem-se a impressão de que está sendo utilizada de maneira inadequada generalizadamente para toda e qualquer contratação sem uma análise prévia da modalidade licitatória mais adequada. Nessa mesma linha, no tocante aos relatórios de pesquisa e à opinião dos pesquisadores, foi evidenciado que tem havido perdas orçamentárias por não entrega de processos feitos em fim de ano, implicando em não cumprimento de metas, etapas ou tarefas dos experimentos, bem como, muitos atrasos nas entregas, e desperdícios de recursos por conta de aquisições de má qualidade que não servem para o trabalho de pesquisa. Por fim, a título de contribuição, este estudo apontou que a legislação de compras públicas atual influencia diretamente no desempenho da Embrapa Semiárido, e não atende às suas necessidades enquanto instituição de pesquisa, indicando que a instituição não pode seguir as mesmas regras, normas e legislação dos processos de aquisições dos demais órgãos da administração pública, e precisa de um novo aparato legal, que lhe proporcione maior flexibilidade para tocar seus projetos e cumprir sua missão institucional
Resumo:
Neste trabalho, a literatura (estado da arte) sobre Agricultura de Precisão é revisada. Um equipamento para a aquisição de dados foi desenvolvido, foi feita uma descrição detalhada do mesmo e são apresentados os testes de campo para sua validação.
Resumo:
Este trabalho trata da questão da tutela dos dados genéticos e sua relação com o direito à privacidade. Em primeiro lugar, analisa-se a evolução da noção de privacidade e seus conflitos com o progresso tecnológico. Em seguida, realizou-se uma pesquisa que procurou apresentar como países estrangeiros lidam com a questão dos dados genéticos, tendo ficado evidente a utilização desses para fins de identificação criminal e como essas experiências influenciam o legislador brasileiro. Depois, são discutidas as controvérsias jurídicas decorrentes da formação de bancos de dados genéticos, o papel que o consentimento desempenha para a proteção da privacidade do indivíduo e a constituição de bancos de dados e os princípios que regem o tratamento desses dados. Por fim, conclui-se que se deve perseguir um equilíbrio entre a necessidade de proteção dos dados genéticos e a utilização desses para se atender interesses juridicamente relevantes de terceiros.
Resumo:
Fusões e aquisições são um fenômeno relevante na economia e estão se tornando cada vez mais presentes no Brasil também. Entre os diferentes setores econômicos nos quais a estratégia de crescimento aquisitivo tem sido implementadas, a educação superior privada merece destaque, não apenas pela frequência de transações, mas também pelo porte de algumas delas, colocando as empresas líderes do mercado brasileiro entre as maiores instituições do mundo. O presente trabalho objetiva entender por que essas empresa têm adotado tal estratégia, ao invés de simplesmente se basearem no crescimento orgânico. A tentativa de responder a essa questão levou à proposta de uma hipótese que sugere que existem motivações econômicas para a ocorrência deste fato. Em outras palavras, a hipótese que o trabalho busca testar é que existem sinergias nas transações realizadas no setor de educação superior no Brasil, bem como que estas sinergias têm sido convertidas em ganhos econômicos para as empresas adquirentes e para os seus acionistas. Para tanto, o presente trabalho primeiramente apresenta uma revisão da literatura do tema de fusões e aquisição e também uma visão sobre o setor brasileiro de educação superior, incluindo sua evolução, regulamentação e outras informações relevantes para apoiar um entendimento mais profundo sobre o fenômeno estudado. Em seguida, baseando-se na metodologia proposta, o trabalho foca no teste de sua hipótese, através da identificação das sinergias específicas presentes no setor e nas empresas selecionadas (Anhanguera, Estácio e Kroton) e da análise de como estas sinergias estão sendo traduzidas em seus resultados econômicos. Finalmente, com base nas evidências geradas por tais discussões, são providas conclusões relativas à veracidade da hipótese.
Resumo:
Abordagens teóricas dominantes no campo da estratégia empresarial (PORTER, 1980; BARNEY, 1991; PISANO e TEECE, 1997), de modo geral, não consideram explicitamente o comportamento corporativo político como um componente do amplo conjunto de elementos que compõem a estrutura dos processos de formulação e implementação estratégica. A pouca ênfase dada ao papel das firmas na seara política resulta em limitações para compreensão do ambiente competitivo e, consequentemente reduz o poder explicativo de estudos que se propõem a desvendar as razões do desempenho diferenciado das organizações. Salorio, Boddewyn e Dahan (2005) reforçam tal perspectiva ao observarem que firmas são organizações econômicas na medida em que em suas transações ponderam custos, benefícios, lucros, market share, mas também, enquanto organizações precisam definir e gerenciar fronteiras, bem como diferenciar e integrar seus membros, os stakerolders e suas operações. Esse envolvimento em um mix de comportamento político-econômico de barganha e não barganha leva à definição das firmas também como organizações políticas. Apesar de tal linha de pensamento ainda ter conotação de novidade para alguns, de reciclagem de antigas ideias para outros, ou, mesmo, parecer se pautar pela tentativa de retomar questões que sempre foram tratadas de forma lateral, Salorio, Boddewyn e Dahan (2005) enfatizam que “the political is always there”. O presente projeto teve objetivo central modelar ambiente simulado para testar antecedentes da atividade política corporativa (HILLMAN, KEIM e SCHULER, 2004), e como objetivos específicos: Modelar um simulador dos ambientes de negócio e político das empresas; aplicar o simulador para gerar dados sobre os antecedentes da participação política; testar antecedentes da participação política como alternativa estratégica em resposta ao baixo desempenho das firmas, a disponibilidade de recursos e a atividade política de concorrentes; testar a interação entre antecedentes de market e nonmarket para explicar a participação política. Com relação aos objetivos, o estudo pode ser caracterizado como explicativo, e quanto aos procedimentos técnicos adotados como de laboratório. O tipo de pesquisa adotado foi o de verificação de hipóteses causais assentada em uma abordagem metodológica quantitativa, cujos dados foram coletados por meio de 12 simulações, estruturadas no formato de um business game, com nove empresas em cada simulação, totalizando 108 unidades de análise. Configuram-se como sujeitos da pesquisa alunos do último ano dos cursos de graduação em administração e economia da Universidade Estadual de Londrina. As análises dos dados foram efetuadas utilizando-se o software STATA para desenvolvimento das regressões, sendo considerado como modelo estatístico a técnica de dados em painel com efeito fixo (WOOLDRIDGE, 2003), visto que o foco do estudo é a análise das informações (decisões/desempenho) das empresas ao longo do tempo. Os resultados indicam que: a) a ineficiência da firma afeta positivamente o investimento em financiamento eleitoral; b) o investimento em ações políticas corporativas ocorre no sentido de complementação às ações de market e não em contraposição, c) a maior propensão em investir em nonmarket está relacionada com desempenho inferior ao da concorrência; d) o aumento do investimento em nonmarket não está relacionado com a ação política mais ativa por parte da concorrência. Não foram encontradas evidências de que firmas com maiores sobras de recursos são mais ativas politicamente.
Resumo:
Parâmetros renais quantitativos como depuração de Tc99m-MAG3, captação relativa, razão 20 minutos/máximo, razão 20 minutos/2-3 minutos, tempo de atividade máxima e tempo de eliminação decorrido até metade da atividade inicial são freqüentemente obtidos com a cintilografia renal dinâmica com Tc99m-MAG3 e diurético. No entanto, em raras situações estes parâmetros foram testados para avaliar sua utilidade clínica. O objetivo deste estudo foi avaliar se o fornecimento de dados qualitativos (curvas e imagens) e quantitativos a médicos nuclearistas com diferentes graus de experiência e treinamento melhora a acurácia diagnóstica da interpretação da cintilografia renal dinâmica com Tc99m-MAG3 e diurético quando comparada à interpretação do estudo baseada somente nos dados qualitativos. Métodos: Uma equipe de três especialistas em medicina nuclear renal revisou as cintilografias renais completas com Tc99m-MAG3 de 108 pacientes e classificou o estado funcional de cada rim em uma escala de 5 pontos (0 = definitivamente normal, 1 = provavelmente normal, 2 = equívoco, 3 = provavelmente anormal, 4 = definitivamente anormal). Cada rim foi avaliado para a presença ou ausência de obstrução em uma escala similar. O escore final dos especialistas se baseou em unanimidade ou maioria; se houvesse desacordo ≥ 2 pontos entre 2 especialistas, o escore final era determinado por uma leitura de consenso. O escore dos especialistas foi usado como padrão-ouro. Quatro grupos de 3 médicos com diferentes níveis de experiência e treinamento em medicina nuclear revisou cada um os 108 estudos (imagens e curvas) e classificou-os em uma escala de 5 pontos em relação à função e obstrução. Após um período de pelo menos uma semana, eles revisaram as mesmas 108 cintilografias em ordem randomizada com a adição dos dados quantitativos e novamente as classificou de acordo com uma escala de 5 pontos. Os escores dos médicos foram comparados ao padrão-ouro. A concordância dos médicos nuclearistas em relação ao consenso dos especialistas foi calculada através do coeficiente kappa ponderado. Resultados: Duzentos e dez rins foram avaliados. O coeficiente kappa ponderado entre os especialistas mostrou uma concordância excelente para função e obstrução. Para a avaliação de função, o kappa ponderado melhorou com a adição de dados quantitativos em todos os grupos, sendo mais evidente para os grupos 3 e 4. Com e sem dados quantitativos, o grupo mais experiente apresentou um valor de kappa ponderado mais elevado do que os grupos com menos experiência. Para a questão de obstrução, os dados quantitativos não melhoraram o desempenho dos médicos experientes (grupos 1 e 2), ao passo que melhoraram o desempenho geral dos médicos menos experientes (grupos 3 e 4). Conclusão: Dados quantitativos não auxiliaram em casos de diagnósticos complexos como obstrução quando o médico que estava interpretando não tinha experiência com o protocolo e com o uso de variáveis quantitativas. Para a avaliação de obstrução, houve uma variabilidade de 15 a 25% na interpretação, dependendo do médico que estava avaliando a cintilografia. Para os diagnósticos menos complexos, como função, os dados quantitativos melhoraram o desempenho dos médicos. Enfim, a análise do kappa ponderado mostrou, principalmente, que existe ainda uma diferença substancial entre a interpretação dos especialistas e a interpretação dos médicos nuclearistas com maior e menor experiência.