91 resultados para Implementação estratégica
Resumo:
A Coordenação Modular pode ser entendida como a ordenação dos espaços na construção civil. Surgiu entre a Primeira (1914-1918) e a Segunda (1939-1945) Guerras Mundiais e contribuiu de forma fundamental na reconstrução de edificações residenciais nos países destruídos pela guerra, principalmente na Alemanha, em função da rapidez e da redução de custos proporcionadas pela sua utilização. A partir de então, muitos estudos surgiram, aprofundando o assunto e mostrando os imensos benefícios que a Coordenação Modular trouxe para a racionalização e a industrialização na construção civil em um grande número de países, sendo amplamente difundida e, hoje se sabe, utilizada. O Brasil foi um dos pioneiros, em nível mundial, a aprovar uma norma de Coordenação Modular, a NB-25R, em 1950, tendo os anos 70 e início dos 80 tomados por seus conceitos e estudos a respeito. Apesar disso, poucos objetivos foram alcançados mesmo com toda a promoção para a racionalização da construção. As atuais preocupações com as questões ambientais, de produtividade e de redução de custos no setor são aliados para uma retomada dos estudos de Coordenação Modular, que se mostra como um fator fundamental para que se traga à construção civil os benefícios que a industrialização trouxe a outros setores industriais. Foi realizado um levantamento histórico, em que são abordadas as questões relativas ao uso do módulo na arquitetura e sua evolução até a Coordenação Modular, os princípios e conceitos mais importantes de sua teoria e as ações realizadas em favor de sua implantação no Brasil As últimas ações identificadas foram as normas publicadas em 1982, pouco antes do fechamento do Banco Nacional da Habitação, até então o principal incentivador da Coordenação Modular. Em seguida a esse hiato de duas décadas em que ficou praticamente esquecida, estudou-se a situação atual da indústria da construção civil sob alguns aspectos e partiu-se em busca do que pode ser feito para a implementação da Coordenação Modular no país. Chegou-se à conclusão de que, apesar dos entraves existentes, o Programa Brasileiro de Produtividade e Qualidade no Habitat (PBQP-H) mostra-se como um instrumento propício para essa implementação, pois, além de contar com o suporte estatal, tem influência sobre todos os intervenientes da cadeia produtiva.
Resumo:
Apesar da visível importância da medição de desempenho, o seu uso por parte da maioria das empresas da construção ainda não constitui uma prática sistemática. De uma forma geral, não existe uma estrutura adequada para coleta e processamento dos dados, sendo, no caso das pequenas empresas, agravada pela falta de pessoas para realizar estas tarefas. Além disto, muitas empresas têm dificuldade em transformar os dados coletados em informação útil para a tomada de decisões. O objetivo principal deste trabalho é propor diretrizes para concepção e implementação de sistemas de indicadores de desempenho para empresas construtoras que atuam no segmento de empreendimentos habitacionais de baixa renda. Este trabalho está limitado a analisar empreendimentos que pertencem aos modos de provisão habitacional do Programa de Arrendamento Residencial (PAR) e Imóvel na Planta, ambos gerenciados pela Caixa Econômica Federal. A pesquisa é constituída pelas seguintes etapas: (a) revisão bibliográfica; (b) discussão dos modos de provisão PAR e Imóvel na Planta, com o objetivo de identificar os critérios competitivos que as empresas devem priorizar para participarem neste segmento de mercado; (c) realização de um Clube de Benchmarking envolvendo dezoito empresas de construção; (d) proposta inicial de indicadores para empresas que atuam em cada um dos modos de provisão habitacional; (e) realização de dois estudos de caso nos quais foram concebidos e implementados os sistemas de medição de desempenho em duas empresas; (f) análise cruzada dos estudos de caso. As principais contribuições da pesquisa estão relacionadas a: (a) diretrizes para concepção e implementação de sistemas de indicadores em empresas construtoras que atuam no segmento de baixa renda; e (b) identificação de fatores facilitadores e barreiras à implementação dos indicadores nas empresas.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
A implentação de uma metodologia de gestão de estoques, objetivo geral da presente dissertação, é vital para empresas que buscam constante aprimoramento dos processos de gerenciamento como um todo. Estas empresas vislumbram na gestão dos estoques mais um ponto responsável pelo diferencial competitivo do mercado. A administração pública deve ter como preocupação a eficiência de suas operações da mesma forma que as empresas privadas, não tendo apenas na eficácia o seu foco de atenções, uma vez que o público deve ser administrado dentro do princípio da economicidade, ou seja, buscando-se a minimização de custos. Desta forma, o principal objetivo deste trabalho é o desenvolvimento de uma metodologia para implentação de um sistema de gestão de estoques baseado no dimensionamento do nível de serviço e de custos de pedidos. A revisão bibliográfica sobre gestão de estoques baseia-se em publicações consideradas relevantes sobre o assunto, com foco em obras que abordam práticas de contrle de estoque. Por fim, um estudo de caso sobre gestão de estoques agrega teoria à prática gerencial de modo a obter-se uma comparação entre custos e benefícios do sistema proposto.
Resumo:
O presente trabalho de pesquisa refere-se à análise dos níveis de disponibilidade e implementação de programas de rastreabilidade, transparência e garantia ao longo da Cadeia Exportadora de Carne Suína Brasileira. Além disso, analisa o uso de práticas de ICT relacionadas à implementação desses programas e à valorização de atributos da carne suína. Os acontecimentos relativamente recentes envolvendo a falta de segurança alimentar levaram os consumidores a rever muitos hábitos de compra e consumo. Como conseqüência, aumentaram as exigências em relação às informações que permitem aos consumidores conhecer a origem e o processo produtivo dos alimentos. Os programas que permitem a rastreabilidade dos produtos, a transparência dos processos produtivos e a garantia da segurança alimentar e da qualidade, tornam-se fundamentais para atender as novas demandas do consumidor. Os objetivos dessa pesquisa são: caracterizar a Cadeia Exportadora de Carne Suína Brasileira; mensurar o nível de implementação de programas de rastreabilidade, transparência e garantia ao longo dessa cadeia; comparar a situação do Brasil em relação a outros países; e identificar as ICT relacionadas à implementação desses programas e os atributos da carne suína que são valorizados por elas. O método de pesquisa empregado é um levantamento associado à triangulação de dados obtidos por meio de outras fontes. O levantamento foi realizado com a aplicação de questionário estruturado enviado para todas as agroindústrias afiliadas a Associação Brasileira da Indústria Produtora e Exportadora de Carne Suína. Para mensuração do nível de implementação e comparação com outros países, é empregado o método de Liddell e Bailey (2001). Os resultados finais estão baseados nas respostas extraídas de 10 questionários recebidos devidamente respondidos. Os resultados revelam que a Cadeia Exportadora de Carne Suína Brasileira tem como ator principal a agroindústria. Com um sistema produtivo baseado na Integração Vertical, coordenado fundamentalmente pelas agroindústrias, estas determinam uma série de características produtivas da cadeia. Em termos de disponibilidade de programas de rastreabilidade, transparência e garantia, o Brasil figura em posição intermediária em relação a outros países importantes produtores e consumidores de carne suína. Como contribuição ao modelo de Liddell e Bailey (2001), faz uma análise comparativa entre a disponibilidade de programas de segurança alimentar e a efetiva implementação pelos atores da cadeia, mostrando que há uma defasagem significativa entre o que está disponível e aquilo que vem sendo utilizado na prática. Algumas práticas de ICT se sobressaem nas relações com a implementação desses programas e na valorização de atributos da carne suína. A Gestão da Cadeia de Suprimentos tem uso destacado entre as agroindústrias, bem como o Gerenciamento das Relações com Clientes, o Gerenciamento das Relações com Fornecedores, a Resposta Eficiente ao Consumidor, a Transferência Eletrônica de Fundos e a Troca Eletrônica de Dados.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho analisa o processo de evolução, concorrência e competição no Setor de Telefonia Móvel Celular do Rio Grande do Sul, no período de 1999 à 2001, entre as operadoras Telefónica (banda A) e Claro (banda B). Para este estudo foram utilizados os conceitos de forças competitivas e estratégias competitivas de Michael E. Porter. Os conceitos são empregados para contextualizar a evolução histórica da telefonia móvel celular no Brasil e o perfil tecnológico do setor Baseado na análise podemos observar que a competição entre as operadoras foi baseada na qualidade dos serviços oferecidos ao invés de um competição baseada em preço, característica de um setor que passa por mudanças tecnológicas.
Desenvolvimento e implementação de uma interface de comunicação para controlador robótico industrial
Resumo:
O presente trabalho trata do desenvolvimento de um sistema para comunicação bidirecional entre um robô ABB IRB 1400, originalmente desprovido de uma interface de comunicação de dados, e um microcomputador PC padrão. Para a implementação utilizou-se a porta paralela do PC e uma Placa E/S Digital para sinais discretos disponível no controlador do robô. Devido à diferença de caracterìsticas elétricas entre as interfaces utilizadas, foi necessáio projetar um dispositivo que permitisse o ajuste dos niveis de tensão entre os sinais. Osistema foi elaborado visando sua utilização por programas desenvolvidos pelos usuários em ambiente Windows, sendo disponibilizadas rotinas para envio e recebimento de dados através de um protocolo próprio. Na plataforma PC as rotinas estão encapsuladas em um arquivo compilado no formato DDL (Dynamic Link Library). No controlador do robô as rotinas foram criadas em linguagem ABB RAPID. O programa desenvolvido pelo usuário é responsável por todo o processamento das informações, que são então enviadas através do sistema de comunicação a um outro programa específico sendo executado no controlador do robô, o qual interpreta os dados e ativa as tarefas correspondentes. Os resultados obtidos foram satisfatórios, sendo a velocidade de transmissão limitada pela velocidade da Placa E/S do robô. Utilizando-se uma placa ABB DSQC 223, atingiram taxas de transmissão da ordem de 12,5 bytes/s para envio e 6,1 bytes/s para o recbimento de informaçãoes a partir do PC. O sistema demonstrou ser uma alternativa viável para o controle do robô através de um microcomputador PC, apresentando boa confiabilidade, baixo custo e faciliadade de implementação.
Resumo:
Satisfazer de modo rápido às necessidades dos clientes quanto a produtos personalizados requer implementação de técnicas de compra de materiais e componentes. Nessa perspectiva, o objetivo deste estudo é a implantação de uma técnica que possibilite a conversão de um sistema de produção MRP (Material Requirements Planning) para um sistema seqüenciado, que tenha um replanejamento autônomo e um fluxo orientado pela demanda do produto final solicitado pelo cliente, possibilitando flexibilidade e redução de estoques. A metodologia aplicada para cumprir com o objetivo proposto foi o estudo de caso, a partir da aplicabilidade das ferramentas Kanban, Sistema de Ponto de Pedido e Sequenciamento, destacando suas peculiaridades em termos de aplicação e em seguida implementação em um lote piloto para comparativo com o Tradicional MRP (Material Requirements Planning), mensurando os resultados em termos de redução de estoques e ganhos em flexibilidade e agilidade ao atendimento ao cliente interno – linha de montagem. Os resultados alcançados na implantação das ferramentas citadas ao lote piloto mostraram que no Sistema Ponto de Pedido, tevese consideráveis ganhos em acuracidade de estoque aplicado às matériasprimas (chapas de aço), no Sistema Kanban encontrouse uma redução de 35% e no Sistema Seqüenciado a redução foi de 60% no nível de inventário. Concluise que a implementação das ferramentas experimentadas através do lote piloto representa uma redução expressiva no nível de inventário e, também, promove a flexibilidade e agilidade no atendimento aos clientes.
Resumo:
Este trabalho relata as atividades de estudo, projeto e implementação de uma aplicação distribuída que explora mecanismos básicos empregados em comunicação de grupo. O estudo é focado no desenvolvimento e uso dos conceitos de sincronismo virtual e em resultados aplicáveis para tolerância a falhas. O objetivo deste trabalho é o de demonstrar as repercussões práticas das principais características do modelo de sincronismo virtual no suporte à tolerância a falhas. São preceitos básicos os conceitos e primitivas de sistemas distribuídos utilizando troca de mensagens, bem como as alternativas de programação embasadas no conceito de grupos. O resultado final corresponde a um sistema Cliente/Servidor, desenvolvido em Java RMI, para simular um sistema distribuído com visões de grupo atualizadas em função da ocorrência de eventos significativos na composição dos grupos (sincronismo virtual). O sistema apresenta tratamento a falhas para o colapso (crash) de processos, inclusive do servidor (coordenador do grupo), e permite a consulta a dados armazenados em diferentes servidores. Foi projetado e implementado em um ambiente Windows NT, com protocolo TCP/IP. O resultado final corresponde a um conjunto de classes que pode ser utilizado para o controle da composição de grupos (membership). O aplicativo desenvolvido neste trabalho disponibiliza seis serviços, que são: inclusão de novos membros no grupo, onde as visões de todos os membros são atualizadas já com a identificação do novo membro; envio de mensagens em multicast aos membros participantes do grupo; envio de mensagens em unicast para um membro específico do grupo; permite a saída voluntária de membros do grupo, fazendo a atualização da visão a todos os membros do grupo; monitoramento de defeitos; e visualização dos membros participantes do grupo. Um destaque deve ser dado ao tratamento da suspeita de defeito do coordenador do grupo: se o mesmo sofrer um colapso, o membro mais antigo ativo é designado como o novo coordenador, e todos os membros do grupo são atualizados sobre a situação atual quanto à coordenação do grupo.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.
Resumo:
Este trabalho consiste de um estudo de caso que tem por objetivo principal, avaliar o processo de implementação de um Sistema de Informações integrado em uma Instituição de Ensino Superior, entidade privada, com base no modelo proposto por Walton(1993).No referencial teórico analisaram-se os conceitos de dados, informação,conhecimento, a informação como recurso estratégico nas organizações, os Sistemas de Informação com o uso da Tecnologia da Informação, apresentando seus tipos, evolução, objetivos e, algumas formas de implementação preconizada na literatura. O instrumento de pesquisa adotado foi a entrevista, estruturada com a utilização de um questionário elaborado a partir dos objetivos do estudo e do modelo de Walton (1993). A análise dos dados coletados foi feita através da aderência das respostas com os preceitos do modelo, o que possibilitou constatar sua contribuição para a identificação dos elementos críticos de um processo de implementação de Sistema de Informações integrado, através das fases inter-relacionadas de criação do contexto favorável, desenho, instalação e uso do sistema, com a contribuição das ações da administração em promoverem os atributos-chave essenciais de alinhamento das estratégias de negócio, de organização e de tecnologia, comprometimento e domínio por parte de todos os envolvidos.