846 resultados para Administração - Processamento de dados


Relevância:

30.00% 30.00%

Publicador:

Resumo:

trata da determinação das taxas de desconto ajustadas ao risco para avaliação, pelo método do fluxo de caixa descontado, do valor econômico de estatais brasileiras privatizadas no período 1991-1992. Utiliza conceitos financeiros como valor presente líquido, eficiência de mercado, capital asset pricing model e risco sistemático, que são aplicados a dados do mercado de capitais e demonstrativos financeiros das empresas. Com as metodologias de regressão linear simples múltipla, desenvolve uma equação que relaciona índices fundamentais com os coeficientes de risco sistemático (betas) das empresas de uma amostra, que por sua vez serve para estimar os coeficientes de risco das estatais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Almejamos, com este trabalho, estudar a relação entre interpretação e o processo de estruturação e institucionalização dos Cursos Superiores de Administração em Curitiba, consoante a perspectiva dos seus dirigentes ou responsáveis acadêmicos. Procuramos identificar os fatores do contexto considerados relevantes e analisar o seu relacionamento com o processo de estruturação e institucionalização. Adotamos abordagem metodológica predominantemente descritivo-qualitativa, com enfoque etnográfico e utilização de múltiplas fontes de evidência e dos discursos e práticas cotidianas, sob uma estratégia e desenho de pesquisa de estudo de caso. O nível de análise foi o organizacional e a unidade de análise foi constituída por grupos de membros das organizações. Como fontes primárias, apoiamo-nos em observação e em 18 (dezoito) entrevistas semi-estruturadas. Os entrevistados foram selecionados de acordo com critérios teóricos. Como fontes secundárias, reportamo-nos a documentos internos e externos, artefatos, signos e símbolos e outros elementos que nos permitiram aferir a história, a cultura, a situação atual e a interpretação do processo de estruturação e de institucionalização desses Cursos Superiores. Os dados primários e os dados secundários foram tratados por meio de análise descritiva, de análise de conteúdo e de análise documental. Para a análise de conteúdo utilizamos a análise categorial temática. Concluímos que o processo de estruturação desses cursos em Curitiba sofreu importantes mudanças a partir de 1996, indicando que a LDB editada nesse ano é um marco referencial neste processo, apesar das bases de institucionalização e de estruturação remontarem a outros fatos e condições que a antecederam. Deduzimos que a estruturação e a institucionalização não são determinadas exclusivamente pela forças institucionais do contexto, pelo mercado ou pelas escolhas dos atores, e que a análise do processo de estruturação e institucionalização do curso superior de Administração em Curitiba pode ganhar força explanativa se considerar outros fatores que não somente os marcos legais. Propomos, ainda, a importância da conjugação dos elementos estruturais e interpretativos para compreendermos esses processos, assim como da configuração e do posicionamento dos atores e desses elementos nas situações e nas práticas. Levantamos a possibilidade de que a institucionalização do ensino de administração tenha suas origens e raízes nos Cursos Superiores de Comércio do início do Século XX.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata do uso dos dados pessoais integrado aos serviços digitais (e-services), criando um ambiente único para gerenciamento e uso destes, denominado de solução de base de dados pessoal. Além de descrever e caracterizar o ambiente e os componentes desta nova solução, são discutidas ações e desenvolvimentos requeridos para os seus principais habilitadores: humanos, tecnológicos e empresariais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analisa a indústria de informações comerciais, dando maior ênfase ao segmento de bancos de dados. Baseia-se principalmente em dados dos mercados norte-americano e europeu. Apresenta o correto uso das informações gerenciais como estratégia empresarial duradoura, apoiada na exploração das inovações tecnológicas, conhecidas como tecnologias de informação (TI). Discute ainda a transferência de poder dos ofertantes e distribuidores da informação para os usuários, fazendo com que as necessidades e desejos destes últimos prevaleçam e se imponham

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso comercial, propriamente dito, s6 começou a ser possível pelo início da década de 60, destacando-se aqui o uso quase que exclusivo das grandes organizações, ainda que com grandes restrições. A evolução continuou por toda a década de 60 e de 70, numa corrida alucinante de velocidade e capacidade de processamento, numa ênfase total ao desempenho da máquina, do hardware

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata-se de uma revisão bibliográfica sobre Marketing com banco de dados, que é o marketing auxiliado por um banco de dados de clientes. No varejo, depois do advento da automação comercial, muitas empresas passaram a possuir um grande banco de dados de seus clientes com as mais variadas informações. Através de alguns exemplos enfatiza-se como aspectos conceituais estão relacionados com os casos práticos apresentados

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de dados coletados em entrevistas semi estruturadas e observação participante, descreve aspectos do trabalho do funcionário de nível médio da Prefeitura de São Paulo - o Auxiliar Técnico Administrativo - sua identificação profissional, auto-imagem, relações de poder e inserção na organização pública. Trata-se de pesquisa exploratória, realizada entre 1994 e 1996, em que implicações de alguns conceitos, modelos e práticas da burocracia pública são discutidos, à luz das observações da autora e dos relatos e opiniões dos funcionários entrevistados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O curso de mestrado profissional em administração (MPA) da Fundação Getúlio Vargas é formatado para profissionais que têm interesse em combinar uma sólida base acadêmica com atividades voltadas para a aplicação prática. O objetivo deste trabalho está alinhado com objetivo do curso ao realizar a aplicação prática dos conceitos da resource-based view das firmas aos resultados dos jogos do campeonato brasileiro com o propósito de identificar quais fatores explicam o desempenho operacional dos times de futebol da primeira divisão, o que irá contribuir para auxiliar os clubes de futebol no Brasil nas suas decisões de investimentos e alocação de recursos financeiros. Ao analisar a qualidade dos jogadores e sua posição relativa em relação ao time, a motivação para o jogo, os fatores "casa" e "camisa", todos considerados recursos valiosos, raros, inimitáveis e operacionalmente utilizáveis, procurar-se-á contribuir para esse processo de decisão de investimentos e construção de vantagens competitivas pelos clubes. Aplicando-se o método de análise multivariada de dados conhecida como regressão linear múltipla, foi possível identificar que existem fatores que influenciam o desempenho dos times independente da sua situação dentro do jogo, seja como mandante como visitante: a posição relativa da qualidade do elenco em relação ao time adversário contribui positivamente e o número de cartões vermelhos contribui negativamente. Ao jogar "em casa", a posição relativa da qualidade dos jogadores do ataque do time mandante em relação aos jogadores da defesa do time visitante contribui positivamente para a vitória do time da "casa". Porém, no caso do time visitante, a posição relativa da qualidade dos jogadores da defesa em relação aos jogadores do ataque do time mandante e a "camisa" (neste caso, apenas se ela "carrega" consigo algum título que dê ao time uma reputação a nível internacional) são os fatores que contribuem positivamente para a vitória. Portanto, a disposição tática dos recursos também é um fator relevante que deve ser considerado em pesquisas futuras. Desta forma, não basta ter os recursos e explorá-los aleatoriamente porque o ambiente de disputa não é estático, assim como não é, de forma análoga, o ambiente de negócios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avalia a arrecadação tributária e propõe uma tipologia para o comportamento tributário dos municípios brasileiros, com o objetivo de auxiliar na compreensão das dificuldades enfrentadas pelos governos municipais na cobrança dos tributos de sua competência. A pesquisa abrange 4.617 municípios, que foram agrupados segundo a importância de cada tributo no cômputo de sua receita total. Os agrupamento foram obtidos empregando a Análise de Cluster, uma técnica de análise multivariada de dados que permite encontrar e separar grupos semelhantes

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese trata de um tema fundamental na sociedade moderna: gestão escolar. O objetivo deste trabalho é contribuir com o gestor, ou a gestora, de Instituições de Ensino Superior de tal forma que ele, ou ela, tenha uma orientação calcada em resultados científicos sobre que ações e medidas devem ser tomadas para melhorar o desempenho de seus formandos em exames padronizados como o Exame Nacional de Cursos (ENC), também conhecido como Provão. Com base em uma extensa pesquisa de modelos de desempenho escolar, foi desenvolvido um modelo conceitual estimável pela técnica dos Modelos Lineares Hierárquicos. A seguir, o modelo estatístico foi ajustado utilizando-se os dados de desempenho escolar dos formandos do curso de Administração de Empresas que realizaram o de 2003. Com base nos resultados obtidos, procurou-se sugerir aos gestores escolares ações. Dessa forma, procurou-se preencher dois objetivos no início deste trabalho: (1) identificar variáveis que ajudem a explicar o desempenho de formandos nos cursos de graduação em Administração de Empresas em exames nacionais como o Provão e o ENADE e (2) oferecer insumos aos gestores de IES de Administração de Empresas sobre como seria possível gerenciar aquelas variáveis que estejam dentro do controle da instituição. Três variáveis, em especial, tiveram um efeito acentuado sobre o desempenho escolar no Provão: fluência na língua inglesa, freqüência de uso de computadores e avaliação que os respondentes fazem das competências a que foram expostos durante o curso superior. Porém, duas dificuldades de medição associadas a esses resultados devem ser consideradas. Em primeiro lugar, a fluência em inglês e o uso de computadores incorporam, em seu efeito, o efeito de variáveis latentes não incorporadas neste estudo. Dessa forma, a origem do efeito dessas duas variáveis não pode ser totalmente esclarecida e o gestor deve tomar diversas ações a fim de cobrir diversas possibilidades distintas. Em segundo lugar, está o fato de que a avaliação que se faz das competências é baseada na percepção de cada aluno e não em medidas intrínsecas de competências desenvolvidas ao longo do curso. Portanto, parte-se da premissa de que os alunos, em média, avaliam, corretamente, as competências que seus cursos os ajudaram a desenvolver. Nas limitações a este estudo, destacaram-se a unidimensionalidade do construto de eficácia escolar e o fato de que a variável utilizada considera o desempenho bruto dos alunos, não sendo uma medida de valor agregado. Além disso, mencionou-se, como limitação, a impossibilidade de se precisar a origem dos efeitos da fluência em inglês e do uso de computadores. Finalmente, as oportunidades de pesquisas futuras tratam de quatro áreas de pesquisas possíveis: (1) estudos comparativos com os resultados de cursos superiores em outras áreas; (2) estudos longitudinais; (3) ampliação do construto eficácia escolar e (4) construção de escalas e indicadores. Cada uma dessas áreas de pesquisa auxiliariam na superação das limitações encontradas no desenvolvimento deste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.