1000 resultados para métodos estatísticos de pesquisa
Resumo:
Vários estudos foram realizados pela academia brasileira sobre desenvolvimento e aplicabilidade de modelos estatísticos de credit scoring e portfólio de crédito. Porém, faltam estudos relacionados sobre como estes modelos são empregados pelas empresas brasileiras. Esta dissertação apresenta uma pesquisa, até então inédita, sobre como as instituições financeiras brasileiras administram seus sistemas de credit scoring e suas carteiras de crédito. Foram coletados dados, por meio de um questionário, dos principais bancos e financeiras do mercado brasileiro. Para a análise dos resultados, as repostas foram divididas em dois grupos: bancos e financeiras. Os resultados mostraram empregos de métodos diferentes entre os grupos devido a suas características operacionais.
Resumo:
O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
O objetivo desta pesquisa foi a identificação de diferenças no desenvolvimento da capacidade criativa de crianças, de ambos os sexos e de diferentes níveis sócio-econômicos, alfabetizados pelos métodos analítico e sintético, nas primeiras series do 1º grau, nos Estabelecimentos de Ensino da Rede Oficial de Uberlândia. Os sujeitos foram sorteados entre os alunos matriculados na 1ª série do 1º grau, havendo apenas a condição de que ainda não houvessem sido alfabetizados. Os sujeitos foram divididos em dois grupos, segundo o método pelo qual seríam alfabetizados. A medida de criatividade utilizada foi o teste de Wallach & Kogan, aplicado em duas sessões: a primeira, quando da entrada dos sujeitos na escola e a segunda, ao final do semestre. A criatividade foi avaliada através das três dimensões: fluência, originalidade e flexibilidade das respostas. A análise estatística revelou diferenças significativas apenas no que se referia à dimensão "flexibilidade", cujo índice se mostrou mais elevado no grupo sintético, quando comparado com o do grupo analítico. Não foram encontradas diferenças entre os grupos feminino e masculino e, nem também, entre os grupos de diferentes níveis sócio-econômicos.
Resumo:
Esta dissertação de mestrado teve como objetivo principal propor um método estruturado suportado for ferramentas gerenciais que permitisse orientar e sistematizar o desenvolvimento de um projeto de pesquisa na disponibilização de uma nova tecnologia para o mercado. O “Projeto Etanol de 2ª Geração”, etanol produzido a partir de biomassas lignocelulósicas, aqui selecionado para estudo de caso, foi extraído da carteira de projetos do Centro de Tecnologia Canavieira (CTC). O método estruturado sugerido é constituído, fundamentalmente, por oito requisitos arranjados de forma cronológica ao longo do desenvolvimento do projeto, que visam auxiliar na prospecção, entendimento, avaliação, valoração, priorização, planejamento e implantação de, por exemplo, uma tecnologia inovadora, otimizando tempo, capital e recursos humanos aplicados. Um dos principais pontos do método proposto refere-se à escolha adequada das ferramentas gerenciais a serem utilizadas em cada requisito (brainstorm, análise de patentes, painel de especialistas, análise SWOT, dentre outras). O êxito na aplicação do método requer o entendimento de todos os (potenciais) efeitos, inclusive os colaterais, no processo como um todo. Ou seja, uma vez que toda ferramenta gerencial apresenta pontos fortes e fracos, o importante é adaptá-las ao sistema de negócio e não vice-versa. A partir do gerenciamento do projeto por um gestor com domínio das ferramentas gerenciais, a escolha destas ocorre de forma dinâmica, onde a cada passo de avaliação novas ferramentas (simples e/ou complexas) podem ser incluídas ou excluídas da matriz do método. Neste trabalho ficou demonstrada a importância de se trabalhar com métodos estruturados e flexíveis, que permitem retroalimentação de informações geradas internamente durante o desenvolvimento da pesquisa ou advindas de fontes externas. O projeto Etanol de 2ª Geração do CTC vem aplicando o método proposto em seu desenvolvimento e obtendo grande êxito em seus resultados, uma vez que a equipe envolvida permanece focada no objetivo principal, obedecendo prazos e recursos inicialmente definidos, com constância do propósito do projeto, sem retrocesso ou recomeço.
Alinhamento de expectativas e desempenho organizacional: um estudo sobre os métodos ágeis de gestão.
Resumo:
A adoção dos métodos ágeis de gestão do desenvolvimento de software tem sido uma tendência mundial, considerando-se as empresas do setor de tecnologia. Empresas brasileiras atuando neste mercado não estão apartadas deste quadro, uma vez que o objetivo desses métodos é endereçar um cenário comum a qualquer uma dessas organizações: lidar com a dificuldade de modelar adequadamente os problemas usualmente complexos que são objetivo da construção de um software e com a mudança constante de requisitos que esta situação representa, potencializada ainda mais pela dinâmica frenética da disseminação da informação no século XXI, além de modificar um quadro crônico de fracassos e falhas no setor, visando entregar produtos de qualidade aos seus clientes com o máximo de velocidade. Aspectos internos como o aumento de produtividade e a redução de retrabalho também fazem parte dos objetivos de adoção destas metodologias. O presente estudo visa avaliar os aspectos humanos e culturais envolvidos e identificar a convergência entre as expectativas da empresa e dos empregados quando da adoção de métodos ágeis de gestão, a partir de pesquisa de campo que capturou as reações de um grupo de entrevistados à implantação desses métodos na Módulo Security Solutions, empresa brasileira de tecnologia e serviços, após dois anos de uso interno abrangente. Os resultados apontam para o sucesso da implantação, com reação positiva dos empregados, a despeito da necessidade de endereçamento de aspectos humanos para ajuste do modelo e do impacto negativo da cultura local e organizacional terem sido amplamente percebidos.
Resumo:
Este trabalho tem por objetivo estudar os processos de mudanças nos ambientes interno e externo de RECURSOS HUMANOS (sub-divididos em Unidades de Análise - UNAN - especificas, sob os aspectos de Organização, Métodos, Informação e Sistemas ou, simplesmente, O & M -I & S, provocadas pela INFORMÁTICA, na esfera empresarial brasileira. Especificamente, foi realizada uma pesquisa de caráter exploratório junto ao principal responsável pela área de RECURSOS HUMANOS das empresas, que devería, por sua vez, e se quisesse, solicitar a colaboração íntima do profissional responsável pelas políticas de INFORMÁTICA. Em alguns casos os pontos de vista desses profissionais e a visão perceptiva do futuro foram tão conflitantes que resultaram em dois posicionamentos para uma mesma empresa, enriquecendo ainda mais a pesquisa. Em outros momentos o pesquisador atuou como entrevistador, obtendo as colocações reais dos respondentes, fator de uma maior confiabilidade para as réplicas obtidas. O ponto de partida desta tese é o pressuposto de que existiria uma relação intima e uma vinculação subjacente, entre, por um lado as teorias administrativas em geral com as suas inúmeras variáveis (em particular, a sistêmica) e, de outro lado, a epistemologia cibernética, ambas procurando tratar da Organização e dos Métodos de análise e engenharia de manipulação das Informações e estruturação dos Sistemas (OMIS) de uma forma disciplinada e bem pensada. Em resumo, considerando de uma forma ingênua, trata-se do estudo do comportamental versus o instrumental e o que este ocasionou naquele, num período de 20 anos (1980/2000), nos ambientes interno (Ai) e externo (Ae) da Empresa. Os resultados obtidos, bem como os pedidos de profissionais que desejavam participar da pesquisa por dela terem conhecimento através de terceiros, indicaram a crescente consideração por esta forma de estudo, o interesse pelo assunto e, principalmente, o reconhecimento do papel de uma Universidade na criação, desenvolvimento e manutenção de uma consciência comunitária, onde a Empresa desempenha um papel de extrema importância para uma melhor qualidade de vida dos RECURSOS HUMANOS em geral, através da INFORMÁTICA.
Resumo:
Para compreender o consumidor através da Pesquisa de Marketing, formular uma pergunta direta nem sempre é a melhor abordagem, devido à necessidade de que o entrevistado primeiro imagine-se na situação proposta e depois “racionalize” como seria sua reação naquele contexto, gerando desvios entre a resposta declarada e o comportamento real (GORDON, 2012). Especialmente na pesquisa do tipo qualitativa, enquanto fonte de hipóteses, é importante buscar continuamente formas de aprimoramento das técnicas. Neste contexto, esta dissertação possui um caráter interdisciplinar, tendo como ponto de partida as possíveis contribuições da Economia Comportamental para a Pesquisa de Marketing. A Economia Comportamental estuda o processo de tomada de decisão, supondo que o ser humano não é perfeitamente racional (RUBINSON, 2010). A pesquisa de campo baseou-se em 12 entrevistas em profundidade, sendo 9 com executivos de empresas clientes de pesquisa e 3 com executivos de institutos fornecedores, visando diagnosticar se existe consciência sobre a existência e influência de vieses comportamentais sobre os resultados das Pesquisas de Marketing, bem como (no caso de haver preocupação com os vieses comportamentais) identificar quais seriam suas recomendações para amenizar tais efeitos. A análise dos resultados mostra que, embora haja ciência sobre a existência dos vieses (embora sem identificá-los por seu nome “técnico” utilizado pela teoria em Economia Comportamental), há uma tendência geral a conviver com eles. Isso porque, na maioria dos casos, poderiam ser contornados com técnicas e formas de análises apropriadas e até mesmo representar oportunidades de insights. Além de não ter sido identificado, entre a amostra entrevistada, o conhecimento sobre as denominações técnicas dos vieses comportamentais, apenas um dos entrevistados citou espontaneamente a Economia Comportamental como fonte de inspiração para novos desenvolvimentos em Pesquisa de Marketing. Do lado da oferta (institutos fornecedores de Pesquisas de Marketing), um dos entrevistados utilizava abertamente a Economia Comportamental como base para o desenho de seus métodos de pesquisa. Os outros dois institutos entrevistados costumam oferecer inovações baseadas menos em teorias e oportunidades interdisciplinares e mais através do uso de tecnologia (como internet e celular), sendo direcionadas pela redução de custo e tempo. Portanto, embora teoricamente apresente grande potencial, na prática ainda não existe uma percepção de que o estudo dos princípios comportamentais seja urgente para a melhoria da Pesquisa de Marketing e tampouco existe conhecimento sobre a Economia Comportamental em si. Trata-se de uma oportunidade, principalmente para os institutos fornecedores de pesquisas, aproveitar de forma mais intensiva os aprendizados provenientes de outros campos da ciência no desenvolvimento de melhores formas de compreender o consumidor. Espera-se que esta dissertação traga contribuições em dois campos: 1- Para a Pesquisa de Marketing de forma geral – practitioners, empresas e institutos, que possam beneficiar-se dos aprendizados, análises e reflexões propostas neste projeto; e 2- Para estudos acadêmicos em Pesquisa de Marketing, reforçando os benefícios da interdisciplinaridade.
Resumo:
Pesquisas de opinião freqüentemente utilizam questionários com muitos itens para avaliar um serviço ou produto. Nestas pesquisas, cada respondente, além de avaliar os itens segundo seu grau de satisfação ou concordância, deve também atribuir um grau de importância ao item. Com estas duas informações disponíveis para cada item, é possível criar uma medida resumo, na forma de um escore total, composto pela avaliação dos itens ponderada pela sua importância. O objetivo desta pesquisa é comparar os métodos de obtenção de importância mais utilizados na literatura, sob vários aspectos. A comparação dos métodos mostra que, quando se utiliza escalas comparativas, há maior discriminação dos itens em relação às importâncias obtidas, mas os questionários que aplicam estes métodos são mais confusos e cansativos para o respondente. A escala de diferencial semântico, por outro lado, é a de melhor entendimento por parte dos entrevistados mas o resultado é pouco discriminatório.
Resumo:
Comentarista: Renato Flores (Núcleo de Prospecção e Inteligência Internacional)
Resumo:
O saudoso professor Wilton de Oliveira Bussab fala de sua carreira na área de estatística e métodos quantitativos.
Resumo:
ARAÚJO, Marta Maria de. Formação do educador no curso de pedagogia de Caicó-RN: reprodução ou transformação social. Porto Alegre, 1985. Dissertação (Mestrado) - Curso de Pós-graduação em Educação. Universidade Federal do Rio Grande do Sul, Porto alegre, 1985
Resumo:
Apresenta a pesquisa como fator importante para os gestores das organizações na tomada de decisão nesse novo cenário evolutivo e dinâmico da economia global no qual a informação é um produto relevante para as empresas. Abrange os tipos de pesquisas, quantitativas ou qualitativas, os métodos de coleta de dados. Considera as características para a realização de pesquisa para gerar resultados, produto final, relevantes aspectos para os patrocinadores das pesquisas. Resume as questões éticas aplicadas a pesquisa para que as partes participantes tenham assim assegurados os direitos de todos os envolvidos. Por outro lado, a busca na literatura apresenta a importância dos resultados de pesquisa como parte do processo administrativo das organizações, dentre elas as unidades de informação em especial. Observa a visão sobre a opinião pública e suas aplicações nas pesquisas diante da visão de alguns autores pertinentes. Enfoca a necessidade do bibliotecário de aprimorar suas competências na área da Gestão da Informação e do conhecimento em geral para saber tomar decisões estratégicas e relevantes na melhoria da qualidade de produtos/serviços em unidades de informação.
Resumo:
The current study presents the characteristics of self-efficacy of students of Administration course, who work and do not work. The study was conducted through a field research, descriptive, addressed quantitatively using statistical procedures. Was studied a population composed of 394 students distributed in three Higher Education Institutions, in the metropolitan region of Belém, in the State of Pará. The sampling was not probabilistic by accessibility, with a sample of 254 subjects. The instrument for data collection was a questionnaire composed of a set of questions divided into three sections: the first related to sociodemographic data, the second section was built to identify the work situation of the respondent and the third section was built with issues related to General Perceived Self-Efficacy Scale proposed by Schwarzer and Jerusalem (1999). Sociodemographic data were processed using methods of descriptive statistics. This procedure allowed characterizing the subjects of the sample. To identify the work situation, the analysis of frequency and percentage was used, which allowed to classify in percentage, the respondents who worked and those that did not work, and the data related to the scale of self-efficacy were processed quantitatively by the method of multivariate statistics using the software of program Statistical Package for Social Sciences for Windows - SPSS, version 17 from the process of Exploratory Factor Analysis. This procedure allowed characterizing the students who worked and the students who did not worked. The results were discussed based on Social Cognitive Theory from the construct of self-efficacy of Albert Bandura (1977). The study results showed a young sample, composed the majority of single women with work experience, and indicated that the characteristics of self-efficacy of students who work and students who do not work are different. The self-efficacy beliefs of students who do not work are based on psychological expectations, whereas the students who work demonstrated that their efficacy beliefs are sustained by previous experiences. A student who does not work proved to be reliant in their abilities to achieve a successful performance in their activities, believing it to be easy to achieve your goals and to face difficult situations at work, simply by invest a necessary effort and trust in their abilities. One who has experience working proved to be reliant in their abilities to conduct courses of action, although know that it is not easy to achieve your goals, and in unexpected situations showed its ability to solve difficult problems
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model