999 resultados para Custeio baseado nas atividades
Resumo:
Inovação tem se tornado um fenômeno cada vez mais complexo e dinâmico, com a mudança de um paradigma focado na inovação industrial, onde a inovação acontecia no produto ou no processo de fabricação, para outro baseado no conhecimento, muito mais amplo. Além disso, o conhecimento e a competência técnica não são mais considerados como um monopólio do departamento de pesquisa e desenvolvimento. Isto trouxe mudanças nas práticas de inovação, que se tornaram mais abertas e levaram as empresas a interagir cada vez mais com o seu ambiente. Por outro lado, a inovação tecnológica, cujo primeiro objetivo é de criar valor para a empresa, tem experimentado alguns limites para resolver problemas sociais, como o aquecimento global. As novas tecnologias têm a capacidade de melhorar a qualidade de vida de muita gente, mas não é suficiente. É nesse contexto que surge outro tipo de inovação, cujo objetivo é de maximizar o impacto positivo na sociedade: a inovação social. Estes dois paradigmas de inovação, mais adequados aos desafios atuais, têm alguns pontos em comum na sua integração com o ambiente externo: a sociedade e outros atores da inovação. No entanto, praticamente não existem estudos integrando inovação aberta e inovação social. Este trabalho estuda a integração destes dois modelos a partir de uma pesquisa exploratória, realizando entrevistas em profundidade com 11 dirigentes de organizações sociais. As iniciativas sociais parecem atrair mais organizações externas para colaborar do que empresas com fins lucrativos, já que são mais altruístas. Parecem integrar essas pessoas e procurar por mais ajuda, especialmente no momento de escalar o negócio. Ainda que algumas organizações têm como prioridade institucionalizar a inovação aberta, outras veem isto como secundário ou simplesmente não sabem como fazer. Isto resulta em uma colaboração mais informal, que não é focada em atividades de pesquisa e desenvolvimento, prática ausente nas empresas da nossa amostra.
Resumo:
O objetivo desta pesquisa foi apreender a percepção dos peritos criminais federais da área financeira, que atuam na Polícia Federal, sobre as competências necessárias para o exercício de suas atividades. Para tanto, realizou-se a pesquisa, cujos sujeitos foram os próprios peritos criminais federais da área financeira, em duas fases distintas: (a) a primeira compreendeu a realização de entrevistas com profissionais experientes e representando diversas características desejáveis para o estudo; buscou-se a opinião de peritos que já foram gestores, que já foram lotados em mais de uma unidade e que possuíssem pelo menos cinco anos de experiência, sobre as competências mais importantes para o desempenho das atividades; (b) a segunda fase compreendeu um levantamento junto a uma amostra de 86 peritos, que correspondeu a 43% do universo pesquisado. Nessa fase, foi aplicado um questionário fechado, por meio da Internet, envolvendo questões que abordavam 41 competências, técnicas e comportamentais, identificadas na primeira fase da pesquisa. Isso proporcionou material que permitiu apreender a percepção dos peritos sobre as competências mais importantes para o desempenho de suas atividades e também sobre o seu grau de domínio dessas competências. Na análise dos resultados, focada no confronto entre as competências técnicas e competências comportamentais, comparou-se as respostas apresentadas por diferentes categorias dos peritos, como faixa etária, região geográfica de lotação, tempo de experiência, sexo e área de formação acadêmica.
Resumo:
Nos próximos anos são esperados elevados volumes de investimentos em Tecnologia da Informação (TI) no Brasil e no Mundo. Por trás desses investimentos está a expectativa de que as organizações irão alcançar níveis superiores de performance e produtividade, os quais deverão ser gerados, entre outras coisas, por novas formas de organização e práticas inovadoras de negócio viabilizadas pela TI. Nesse contexto, a capacidade de gerir as possíveis resistências que serão trazidas por essas mudanças organizacionais se mostra um dos fatores mais importantes para o sucesso desses investimentos. Diante disso, o objetivo deste trabalho é analisar alguns dos diversos modelos existentes sobre resistência a mudança em implantações de Sistemas de Informação e, a partir da articulação de três deles, propor um metamodelo teórico que poderá ter um maior poder de explicação desse fenômeno.
Resumo:
Com o crescente número de fabricantes de produtos, serviços e soluções de TI, direcionando boa parte de sua produção ao indivíduo, desenvolvendo dispositivos pessoais móveis, redes sociais, armazenamento remoto de arquivos, aplicativos grátis ou a custos acessíveis a boa parte dos profissionais do mercado de trabalho atual, os indivíduos estão, cada vez mais, se munindo de dispositivos e aplicações para organizar suas vidas, se relacionar com pessoas e grupos sociais e para se entreterem, entre outras coisas. Consequentemente, muitos levam estas tecnologias pessoais para dentro do ambiente corporativo e as utilizam para auxiliar em suas tarefas profissionais. Este fenômeno tem sido chamado, pelos estudos não-científicos sobre o tema, de Consumerização de TI ou BYOD (Bring Your Own Device). O objetivo deste estudo é identificar o conjunto de fatores críticos que as organizações devem levar em consideração no momento em que criam ou aprimoram sua política de utilização de tecnologias pessoais para a condução de atividades corporativas. Para identificar este conjunto de fatores críticos são utilizadas técnicas de análise de conteúdo, para analisar o material coletado, que são estudos não-científicos, tais como: pesquisas de empresas de consultoria na área de administração de TI, estudos de instituições de diferentes indústrias e entrevistas com pesquisadores e profissionais da área de TI e de outras áreas do Brasil e dos Estados Unidos da América. São identificados sete fatores, dos quais, três são críticos à política de utilização de tecnologias pessoais no ambiente corporativo, dois são impulsionadores do fenômeno e dois são fatores beneficiados pelo fenômeno.
Resumo:
A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo
Resumo:
Esta pesquisa, batizada Astrha (Automata Structured Hyper-Animation), tem suas raízes no projeto “Hyper Seed - Framework, Ferramentas e Métodos para Sistemas Hipermídia voltados para EAD via WWW” que possui, entre seus objetivos e metas: (a) o desenvolvimento de uma fundamentação matemática para a unificação, de maneira coerente e matematicamente rigorosa, de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos; (b) a construção e validação de um protótipo de sistema com suporte à criação de conteúdo multimídia e hipermídia com ênfase em educação assistida por computador; (c) a definição e aplicação de estudos de caso. Atender às demandas acadêmicas e construtoras supra citadas, no que se refere à unificação de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos, em nível conceitual, é o objetivo principal do Astrha. Mais especificamente, unificar conceitos das especificações Hyper-Automaton; Hyper- Automaton: Avaliações Interativas; eXtensible Hyper-Automaton (XHA) e Animação Bidimensional para World Wide Web (AGA). Para resolvê-las, propõe uma solução em cinco fases. A primeira constitui-se numa investigação conceitual sobre unificação de ambientes hipermídia com animações por computador, da qual conclui-se que as hiperanimações são uma resposta adequada ao contexto. Em seguida, um autômato finito não-determinístico, reflexivo, com saídas associadas às transições, denominado Astrha/M, é especializado para modelar, formalmente, estruturas hiper-animadas. Na terceira fase, uma linguagem de quarta geração denominada Astrha/L é proposta com a finalidade de proporcionar semântica à ambientes hiper-animados. Construída a partir da metalinguagem XML, é composta de quatro dialetos: (1) Mealy, que traduz o modelo Astrha/M; (2) Environment, que oferece opções de configuração e documentação; (3) Hyper, linguagem hipermídia, de sintaxe simples, que oferece hiperligações estendidas; (4) Style, especificação de estilos em cascata e de caracteres especiais. A quarta fase é a modelagem e construção do protótipo, denominado Astrha/E, através das linguagens UML e Java, respectivamente, com uso de tecnologias de software livre, resultando em um applet interativo, dinâmico, multimídia, que oferece características e propriedades de uma hiper-animação, traduzindo não-determinismos em escolhas pseudo-aleatórias e reflexividades em inoperabilidades aparentes. Por fim, a quinta fase trata de estudos de caso aplicados em educação a distância, em diversas áreas, de onde se conclui sua validade como conceito, modelo e ferramenta para programas educacionais que utilizam a Internet como meio de auxílio ao aprendizado.
Resumo:
Lourenço Filho discursa em atividades do Instituto de Seleção e Orientação Porfissional
Resumo:
O trabalho tem por objetivo analisar possíveis mudanças no uso e contabilização de derivativos em função da convergência das normas brasileiras de contabilidade para os padrões internacionais (IFRS – IAS 39). As pesquisas basearam-se em empresas brasileiras não financeiras, observando informações de suas notas explicativas e a volatilidade de contas de seus balanços: lucro líquido e fluxo de caixa. A despeito das hipóteses formuladas, os resultados encontrados mostraram que a alteração do padrão contábil não afetou o uso de derivativos e, também, não se encontrou quaisquer evidências de que tenha havido impacto na volatilidade do fluxo de caixa e lucro líquido das companhias. Por fim, observou-se se a metodologia opcional de contabilidade de hedge (hedge accounting) suavizava a volatilidade dos lucros da firma, confirmando uma das hipóteses desta pesquisa.
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.
Resumo:
Verifica-se que a educação vem evoluindo ao longo das últimas décadas, o que tem constantemente ajudado a redefinir o papel do professor em sala de aula. Hoje o professor precisa ficar atualizado não apenas com relação às mudanças sócio-políticas nas quais está inserido, mas também precisa adquirir constantemente novas práticas didáticas que auxiliem no exercício pedagógico. Dessa forma, destaca-se o papel essencial desempenhado pela formação continuada do professor, que é tão ou mais importante do que sua formação inicial. O objetivo deste trabalho é analisar a contribuição que a Lei Federal nº. 11.738/2008, conhecida como Lei do Piso, traz implicitamente para a formação docente nos horários extraclasse da jornada do professor. O estudo aprofunda-se na análise da implementação da referida lei no município de Caraguatatuba, através da revisão teórica e jurisprudente, bem como da aplicação de questionários aos professores do ciclo inicial do ensino básico do município. Com base na pesquisa, verifica-se que os docentes do município apresentam a capacitação formal adequada para exercer suas funções em sala de aula. No entanto, observase que a formação dos professores não tem ajudado a melhorar significativamente o desempenho do município no Indicador de Desenvolvimento do Ensino Básico (IDEB), que é o instrumento oficial no Brasil utilizado para nortear as políticas públicas em educação. Uma vez reconhecido esse problema, passa-se ao mapeamento de alternativas de correção dessa anomalia através da mensuração de indicadores de desempenho dos professores no processo de formação docente em horários extraclasse.