116 resultados para Sistema custeio baseado em atividades
Resumo:
Esta dissertação propõe um método de trabalho para a implantação de um sistema de Planejamento Fino da Produção baseado na Teoria das Restrições. É apresentada uma revisão bibliográfica sobre Planejamento e Controle da Produção, destacando a abordagem da Teoria das Restrições. É realizado um estudo sobre ferramentas computacionais de Planejamento Fino da Produção e suas particularidades. A seguir é desenvolvido o método de trabalho, que foi seguido de sua aplicação prática em uma empresa industrial do ramo metal-mecânico. O estudo apresenta as modificações no sistema de Planejamento e Controle da Produção da empresa, que foi adequado as práticas e princípios da Manufatura Sincronizada. As melhorias decorrentes da implantação podem ser constatadas através dos resultados divulgados. Este trabalho explora as particularidades e dificuldades da implementação desta ferramenta de apoio à tomada de decisão, e discute aspectos referentes às mudanças na “filosofia” de produção impostas pela sincronização da manufatura.
Resumo:
O atual contexto social tem sido marcado pelo constante avanço tecnológico e científico, pela rápida defasagem dos conhecimentos e pela demanda por profissionais mais qualificadas e capazes de aprender e resolver problemas colaborativamente. A fim de atender esta demanda, o ensino tradicional tem que mudar, de forma que as pessoas possam desenvolver habilidades de “aprender a aprender” e “aprender colaborativamente”. A Aprendizagem Colaborativa tem sido apontada como uma alternativa a este problema, possibilitando uma aprendizagem flexível, ativa e centrada no aluno. Os alunos aprendem em colaboração com outros alunos, o que possibilita uma aprendizagem mais profunda, através de trocas de idéias, dúvidas e pontos de vista. Por outro lado, o advento da rede Internet e a consolidação desta como um importante meio de comunicação mundial têm introduzido novas possibilidades à Aprendizagem Colaborativa Apoiada por Computador (Computer Supported Collaborative Learning – CSCL). Uma atenção especial tem sido dada ao WWW, serviço que possui grande potencial como meio ativo de aprendizagem, embora seja amplamente utilizado como meio passivo de transmissão de informações pela Internet. Este cenário tem viabilizado a utilização da infra-estrutura da Internet para a criação de um sistema de CSCL de grande alcance e a um custo relativamente baixo. O objetivo principal do presente trabalho é propor e implementar um modelo de CSCL baseado na Internet que forneça, de forma integrada, o suporte necessário para o desenvolvimento efetivo de atividades colaborativas de aprendizagem. O trabalho realizado pode ser dividido em três etapas principais: (1) o levantamento teórico, que consistiu no estudo das principais áreas relacionadas com o trabalho desenvolvido, o que foi fundamental para a definição do modelo de sistema de aprendizagem colaborativa proposto; (2) a definição do modelo, que consistiu no levantamento das atividades básicas que devem ser apoiadas por um ambiente de CSCL e na proposição do modelo de um sistema de CSCL baseado na Internet com suporte às atividades levantadas; (3) a implementação do modelo, que possibilitou a verificação da viabilidade da utilização do serviço WWW como base para um ambiente de CSCL, através da utilização de recursos de programação para web e da integração de ferramentas já existentes na Internet.
Resumo:
O transporte aéreo vem sofrendo constantes mudanças apontando para uma eficiência operacional cada vez mais solicitada.Com programas de manutenção enxutos e aeronaves padronizadas, as empresas aéreas têm dedicado seus esforços no atendimento das demandas dos clientes através de pacotes de serviços buscando relações quase personalizadas. Dentro deste cenário algumas empresas que já possuíam seus parques de manutenção estabelecidos, estão sendo reavaliadas, no sentido de utilizar os ativos disponíveis em outras oportunidades de negócios. Os serviços realizados em aeronaves seguem um programa de manutenção preestabelecido e lançam mão tanto de recursos tangíveis como de intangíveis através da utilização do conhecimento de técnicos especializados. Este trabalho foi desenvolvido junto a uma empresa recentemente criada para atuar no ramo de manutenção aeronáutica e buscando subsídios teóricos para melhor entender as ferramentas disponíveis e avaliar suas potencialidades no desenvolvimento de um modelo de gestão baseado em um sistema de avaliação de desempenho para a empresa em estudo. Para esta finalidade, várias ferramentas foram avaliadas e comparadas com as necessidades do negócio gerando um modelo considerado adequado para a empresa em estudo. Apesar do modelo ter sido projetado para uma empresa específica, ele foi concebido tão genérico quanto possível para que pudesse ser aplicado em outras empresas similares. O modelo empregou o Balanced Scoredcard (Kaplan, Norton, 1992) como metodologia de medição de desempenho, mapas de relacionamentos (Rummler e Brache, 1994; Harrington, 1991) para identificação dos processos, identificação dos critérios competitivos (Slack, 2002), e matrizes de relação buscando priorizar e identificar as relações dos processos com as funções da empresa. O modelo foi então aplicado, deforma parcial buscando-se a viabilidade de sua implantação.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Resumo não disponível.
Resumo:
O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.
Resumo:
Vetores de expressão são ferramentas moleculares úteis para investigar a função de genes tanto em sistemas procarióticos quanto eucarióticos. O fungo Metarhizium anisopliae, utilizado no controle biológico de artrópodes, é bem caracterizado em nível molecular. Genes candidatos a participar do processo de infecção de hospedeiros tem sido isolados utilizando estratégias em que o gene candidato é predefinido (enzimas hidrolíticas, por exemplo) ou estratégias mais globais como projetos de ESTs e a análise de bibliotecas de subtração. A superexpressão tem sido o método adotado para verificar a participação de genes isolados no processo de infecção. Esta estratégia tem sido baseada no promoter heterólogo PgpdA de Aspergillus nidulans. Neste trabalho, o gene que codifica o fator de alongamento de tradução tef-1 α de Metarhizium anisopliae foi clonado e a sua região promotora foi localizada e utilizada na construção de um vetor de expressão. Somente uma cópia do gene tef-1α está presente no genoma de M. anisopliae e o seu perfil de expressão foi analisado. Uma árvore filogenética foi construída baseada nos ortógos de tef-1 α e mostrou uma alta correlação com o fungo Cordyceps taii. A região de 639 pb à montante do codon de iniciação (ATG) foi utilizada com sucesso para a expressão do gene repórter sGFP e do gene bar, que confere resistência ao glifosinato de amônio, em M. anisopliae. Os transformantes construídos não apresentaram alteração na sua virulência em bioensaios com carrapatos, em relação a linhagem receptora. Além disso, demonstramos que o nível de expressão permite a detecção óptica da fluorescência de sGFP durante a infecção dos carrapatos. Desta forma, o vetor desenvolvido será uma ferramenta útil para a superexpressão em Metarhizium.
Resumo:
Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.
Resumo:
O ambiente concorrencial atual está impondo novos fatores de competição às empresas. Com a globalização e a abertura do mercado, as empresas brasileiras estão implantando programas de qualidade e produtividade tendo como referencial principal (benchmarking) as empresas japonesas. As conseqüentes mudanças no ambiente empresarial não estão, entretanto, sendo consistentemente acompanhadas por evoluções nas sistemáticas de controle e custeio. As informações relativas ao controle de uma empresa devem ser acuradas o suficiente para subsidiar o processo de tomada de decisões no atual ambiente competitivo. Porém, as tradicionais práticas de controle e custeio, além de obsoletas, podem constituir uma restrição para a continuidade dos programas de melhoria das empresas. Este trabalho mostra a evolução dos sistemas de manufatura, com ênfase particular no Modelo Japonês / Sistema Toyota de Produção. Uma atenção especial é dada à necessidade de mudanças nos sistemas de controle das empresas, principalmente na parte de custeio. Mostra-se ainda algumas características das sistemáticas de controle e custeio nas empresas japonesas em comparação com a lógica predominante nas empresas ocidentais. Apóia-se o trabalho em um caso real de uma empresa que já passou por um processo de racionalização, sob forte influência dos conceitos japoneses de qualidade e produtividade, e que, agora, sente a necessidade de uma maior transparência e melhor entendimento do comportamento dos custos em seu ambiente, para poder dar continuidade a este processo de melhorias.
Resumo:
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
Resumo:
As empresas rompem seus paradigmas porque a competitividade as obriga a isso em função do mundo globalizado, no qual estão inseridas hoje. Para uma empresa que vive nesse contexto, a tecnologia da informação é uma ferramenta auxiliar no processo de gerenciamento e tratamento das mesmas. Os Sistemas Gerenciais de Gestão Empresarial (ERP's) estão ajudando a suprir as carências demandadas pelas empresas no sentido de fazerem frente ao contexto atual. Mesmo assim, com tecnologias a ajudá- las, são as pessoas (gestores e equipe), as implementadoras desses sistemas. Tais sistemas em função da velocidade de implantação, fazem com que os gestores sofram demasiado peso de responsabilidades, pois não são suficientemente preparados para serem "coachs", ou seja, ensinarem sua equipe e participarem com a mesma, dos processos de transformações. Além disso, sofrem todos em função de que as atividades diárias da empresa não param diante de tais trans formações, gerando ao mesmo tempo dificuldades e embates naturais para serem administrados. Neste contexto a influência do gestor na mudança, competência que interessa neste estudo, é peça importante para a condução desse processo. Os objetivos que permearam esta pesquisa se baseiam na questão de como os gestores podem influenciar no nível de participação das pessoas num processo de mudança. No caso abordado, observa-se que em função dos problemas relatados na empresa em estudo, houve má condução na impleme ntação, causada pelo nível de envolvimento apresentado pelas pessoas não ter sido o suficiente. Para o levantamento dos dados utilizou-se fonte múltipla de coleta como observação participante, questionário, registros em arquivos e documentos. A análise foi efetuada com base nos dados coletados e no referencial teórico constante neste estudo. O resultado da análise apresentou 10 pontos críticos os quais estão compostos nos seguintes grandes enfoques: processo decisório, condução, desenvolvimento, cronograma do projeto e pessoas na organização. Para estes pontos críticos foram elaboradas sugestões, tais como políticas de envolvimento e comprometimento, visando através destas a construção de um referencial exploratório para futuras ações da organização em estudo.
Resumo:
A memória pode ser definida como o armazenamento e a evocação de uma informação aprendida. Sendo um processo dinâmico, requer a ativação de diversos sistemas para que a informação adquirida seja consolidada. O ATP é um importante neurotransmissor que, após a sua liberação e conseqüente ativação de seus receptores específicos, precisa ser inativado. Esta remoção do ATP da fenda sináptica ocorre através de sua hidrólise promovida pelas ectonucleotidases. Como um dos produtos da hidrólise do ATP, a adenosina é considerada um potente neuromodulador e exerce suas ações através de receptores específicos com ações excitatórias (A2A e A2B ) ou inibitórias (A1 e A3). Vários trabalhos já demonstraram a participação do sistema purinérgico nos processos relacionados a memória da tarefa da esquiva inibitória. Estudos realizados em nosso laboratório mostraram a participação das ectonucleotidases sinaptossomais de hipocampo, córtex entorrinal e córtex parietal na consolidação da memória para esquiva inibitória. No entanto, existem poucos estudos a respeito do sistema purinérgico nos mecanismos de consolidação da memória em outras regiões cerebrais, tais como o córtex cingulado anterior (CA) e posterior (CP) e a área pré-central medial (FR2). Portanto, na primeira parte deste estudo, avaliamos as atividades ectonucleotidásicas em sinaptossomas de CA, CP e FR2 de ratos submetidos à tarefa de esquiva inibitória. Nossos resultados demonstraram um aumento na hidrólise de ATP em sinaptossomas de FR2 e CA; e na hidrólise de ADP em sinaptossomas de FR2 e CP. Este aumento na hidrólise de ATP e ADP ocorreu devido ao choque administrado na tarefa, já que o grupo de animais que não recebeu choque não apresentou alterações na hidrólise de ATP e ADP. Este efeito observado provavelmente não está associado à consolidação da memória, mas a mudanças neuroquímicas e neurohumorais induzidas pelo estresse após o choque. Além disso, foi observado um aumento relacionado ao aprendizado na atividade ATPásica e ADPásica em CP e CA, respectivamente. Estes resultados sugerem fortemente que estas enzimas participam da consolidação da memória em CP e CA. O aumento na hidrólise de ATP e ADP sugere um possível aumento na concentração de adenosina nestas regiões. Portanto, na segunda parte deste estudo, verificamos a influência de agonistas e antagonistas de receptores de adenosina nas memórias de curta (STM) e de longa (LTM) duração na tarefa de esquiva inibitória. Então, neste estudo administramos intrafusões de análogos de adenosina em CP, imediatamente após o treino em esquiva inibitória. Os resultados demonstraram que a intrafusão de DPCPX, um antagonista de receptores A1, em CP, na concentração de 50 nM, aumentou significativamente a retenção da tarefa em ambas STM e LTM. Além disso, a administração de CPA, um agonista de receptores A1 de adenosina, não alterou ambas STM e LTM nas concentrações testadas. Portanto, este estudo sugere que os receptores A1 exercem uma modulação inibitória em CP tanto na STM quanto na LTM para o aprendizado de esquiva inibitória. A regulação dos níveis de ATP e adenosina pelas ectonucleotidases em CP, CA e FR2 controlaria a ativação dos receptores A1 nestas estruturas, podendo exercer efeitos modulatórios na consolidação da memória nestas estruturas.
Resumo:
Este trabalho de conclusão investiga o efeito da geração de estoques intermediários nos indicadores principais empregados na Teoria das Restrições (Ganho, Despesa Operacional e Inventário) em uma unidade industrial de processo produtivo de Propriedade contínuo, que emprega embalagens, matérias-primas obtidas em larga escala e cadeias logísticas de longo curso. Este tipo de indústria produz bens de consumo imediato, com pouca variabilidade, de modo “empurrado”. A principal conseqüência é a perda do sincronismo na cadeia logística, resultando em uma grande quantidade de estoques intermediários e custos crescentes, relacionados principalmente ao custo de manutenção destes estoques. Através dos cinco passos de focalização e das ferramentas lógicas da Teoria das Restrições, propõe-se uma alternativa gerencial, que inclui o algoritmo Tambor-Pulmão-Corda e insere a organização em um processo de melhoria contínua, cujos impactos são avaliados por simulação computacional. Através de técnicas estatísticas e software apropriados, constrói-se um modelo de simulação computacional baseado em dados reais de uma planta produtora de cimento. A partir deste modelo, diferentes cenários são testados, descobrindo-se a condição ótima. Chega-se a uma conclusão, considerando a mudança na política de geração de estoques intermediários e seus impactos na redução de custos e riscos.
Resumo:
O mundo vem enfrentando a transição de uma economia industrial para uma economia na qual a informação, junto com a terra e o capital, será a força motriz na criação de riquezas e prosperidade. Assim, o sucesso estratégico de muitas empresas vai depender do uso inteligente e da exploração efetiva das possibilidades inerentes à tecnologia da informação. No entanto, as empresas não têm obtido as informações com a qualidade necessária. Isso porque identificar, produzir, selecionar e gerir informações como forma de proporcionar suporte aos processos decisórios tem sido um dos grandes desafios da atualidade.O presente estudo enfoca o processo de identificação de requisitos informacionais destinados ao desenvolvimento de um sistema de apoio a decisões, através de um estudo de caso realizado na Secretaria Municipal da Fazenda do município de Porto Alegre. Ele compreende a etapa de identificação do problema a ser abordado, a definição de modelos conceituais, o mapeamento dos requisitos informacionais das principais atividades identificadas, a comparação destes modelos com os sistemas de informação existentes, e a proposição de mudanças. A metodologia utilizada foi a soft systems (SSM). A SSM é uma metodologia adequada ao tratamento de questões que em geral não se apresentam de forma estruturada. Isto é particularmente importante quando se opera em níveis acima do meramente operacional, em que a questão não é tanto ‘como fazer algo’, mas sim ‘o que deve ser feito’. O uso da SSM mostrou-se adequado e flexível o suficiente para permitir a condução de todas as etapas do trabalho de forma coerente, ao mesmo tempo em que conduziu a resultados que superaram as expectativas iniciais.