120 resultados para Tarefas motrizes
Resumo:
Ambientes de engenharia apresentam a forte característica da necessidade de cooperação entre projetistas na concepção de projetos CAD, o que provoca uma série de problemas em relação aos ambientes usuais encontrados em aplicações convencionais. Na busca de solucionar tais problemas, vários recursos e mecanismos relativos às gerências de dados e do processo de projeto são apresentados em vários estudos encontrados na literatura. Boa parte desses recursos estão embutidos nesse trabalho, que visa apresentar um sistema gerenciador de documentação técnica para ambientes de engenharia/CAD chamado GerDoc Ábacus. A proposta da construção do GerDoc Ábacus é baseada na busca da solução dos problemas relativos à consistência dos dados de projetos e da integração de tarefas de projetistas que interagem em ambientes distribuídos de projeto. Unindo vários mecanismos, é proposta uma interface totalmente interativa, objetivando manter a harmonia entre projetistas que fazem parte de equipes de projetos que são mantidos em atividade durante longos períodos de tempo, além de documentar todos os passos realizados acerca de cada um desses projetos. Dessa forma, o GerDoc Ábacus é uma ferramenta organizacional e administrativa para projetos de engenharia, sendo de fácil operacionalização, buscando altos níveis de integridade dos dados mantidos.
Resumo:
O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.
Resumo:
Esta pesquisa analisa as mudanças comportamentais e as barreiras percebidas com a adoção da Internet, na opinião do corpo docente e administrativo, da Universidade da Região da Campanha – URCAMP - BAGÉ/RS. Inicialmente, foi analisado o uso da Internet, considerando-se os índices dos usuários e não-usuários, tipos de serviços, etc. Posteriormente, foram analisadas as mudanças comportamentais observadas na estrutura organizacional, nos grupos e no indivíduo e, finalmente, analisaram-se as barreiras que inibem ou dificultam o uso pleno da Internet na Universidade. Foram coletados dados junto ao corpo docente (professores) e corpo administrativo (diretores, coordenadores, chefes e funcionários de apoio) pertencentes a quatro campi da Universidade (Bagé - Campus Sede, Alegrete, São Gabriel e Sant`Ana do Livramento), na tentativa de fazer um diagnóstico no ambiente acadêmico referente ao uso desta tecnologia. Para atingir os objetivos propostos, efetuou-se uma pesquisa survey, sendo os dados coletados diretamente em quinhentos e cinqüenta e oito professores e campi, que responderam a um conjunto de questões fechadas e escalares. A partir da análise quantitativa dos dados coletados, chegou-se a alguns resultados significativo referentes às mudanças comportamentais percebidas tais como: maior criatividade na execução das tarefas, a imagem da URCAMP mais conhecida, novas habilidades e aquisição de novos conhecimentos. No que se refere as barreiras percebidas, destacam-se o suporte tecnológico referente à distribuição dos equipamentos.
Resumo:
Nas últimas décadas,o interesse pelo gerenciamento do valor tem aumentado no setor da construção. Neste contexto,a geração de valor pode ser compreendida como o atendimento dos requisitos do cliente final.Tal atendimento, por sua vez, depende de como os requisitos são priorizados e comunicados para a equipe de projeto ao longo do processo de desenvolvimento do produto. O objetivo desta dissertação consiste em propor um conjunto de diretrizes para o gerenciamento dos requisitos do cliente no processo de desenvolvimento do produto edificio, de forma a estabelecer meios para capturar requisitos e controlar seu fluxo,em empreendimentos da construção. O método de pesquisa foi dividido em três etapas. Inicialmente foi realizada uma revisão bibliográfica. Em seguida, foi desenvolvido um estudo de caso em uma empresa que realiza empreendimentos habitacionais, o qual resultou em uma proposta inicial de diretrizes para a gestão dos requisitos do cliente, enfatizando contexto deste tipo de empreendimento. A terceira etapa envolveu a realização de um segundo estudo de caso em um empreendimento industrial realizado por uma empresa que atua com obras complexas, de curto prazo e com elevado grau de incerteza. Este estudo possibilitou um segundo ciclo de aprendizagem, resultando no conjunto final de diretrizes para a gestão dos requisitos do cliente, considerando também empreendimentos de obras industriais de execução rápida Ambos os estudos de caso envolveram otrabalho de equipes multidisciplinares durante o processo de desenvolvimentodo produto. Estas equipes incluíram ambas profissionais das construtoras envolvidas,bem como, projetistas, consultores, empreiteiros e representantes do cliente. As respectivas equipes realizaram diversas tarefas ao longo do empreendimento, tais como identificar o objetivo do empreendimento, planejar e controlar o processo de desenvolvimento do produto, formular um programa de necessidades tão completo quanto possível e considerar os requisitos do sistema de produção nas fases iniciais do processo de desenvolvimento do produto. As principais conclusões desta pesquisa estão relacionadas à introdução de uma sistemática para gerenciamento dos requisitos do cliente no desenvolvimento do produto e à aplicação de ferramentas para coletar dados e apoiar a tomada de decisão. Constatou-se que o uso de ferramentas relativamente simples para realizar a captura e controle do fluxo de requisitos do cliente teve um efeito positivo no processo de desenvolvimento do produto. O estudo também indicou a necessidadede realizar a gestão dos requisitos do cliente desde as fases iniciais de concepção dos empreendimentos da construção. Além disso, o estudo resultou em contribuições conceituais para a consolidação do conhecimento da natureza do processo de projeto, no que se refere à geração de valor.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
A difusão da educação baseada na Web está trazendo uma série de mudanças nesta área. Uma dessas mudanças está na forma de como se avaliar as atividades dos alunos remotos, não só através de tarefas tradicionais como testes, mas verificando, em tempo-real, as ações dos alunos e assim possibilitando ao professor um acompanhamento mais completo das atividades dos estudantes. De acordo com os recursos computacionais existentes, a utilização de um Sistema de Alertas é a opção que melhor se adequa a estas finalidades, pois com este tipo de sistema é possível acompanhar as atividades dos alunos em cursos a distância. O objetivo deste trabalho é apresentar um Sistema de Alertas Inteligentes para apoio ao ensino, que detecta problemas nas atividades dos alunos em cursos na Web e realiza ações corretivas adequadas. Este sistema está parcialmente integrado ao ambiente Tapejara do Instituto de Informática da UFRGS – Sistemas Inteligentes de Ensino na Web - que consiste em um sistema de construção e acompanhamento de cursos disponibilizados via Internet. A principal característica do Sistema de Alertas Inteligentes é a busca de situações críticas como, por exemplo: aluno apresenta baixo desempenho nos exercícios, a estratégia de ensino não corresponde ao perfil do estudante, aluno não está comparecendo às atividades do curso, etc. Com isto, este sistema pode auxiliar o professor (tutor virtual) a ter um acompanhamento mais preciso sobre as atividades realizadas pelo estudante e assim, adaptar as aulas às características do aluno, sem, com isto, acarretar numa sobrecarga de trabalho.
Resumo:
Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.
Resumo:
Esta investigação busca compreender as relações de saber-poder nas práticas de leitura de estudantes do ensino superior privado. A pesquisa de campo foi composta por entrevistas individuais com alunos e professores, pela realização de discussões coletivas com um grupo de estudantes e pela análise de documentos de uma faculdade privada na cidade de Porto Alegre. A partir do referencial teórico da análise das práticas discursivas de Michel Foucault, discute-se as relações entre os percursos de vida das estudantes que participaram das entrevistas coletivas, o contexto sócio-histórico, os discursos universitários sobre a leitura e a identificação dos dispositivos presentes nas instituições escolares que afetam os modos de ler dos estudantes. Os resultados apontam a existência de regularidades nas práticas de leitura no ensino superior privado, as quais acabam por constituir a "Cultura do Polígrafo". Essa prática é caracterizada pela indicação de leitura por parte dos docentes, de textos, geralmente retirados de livros e/ou revistas, para serem fotocopiados pelos alunos. A Cultura do Polígrafo é atravessada pela lógica da fragmentação e do consumo de leituras. Constatou-se que a maioria dos alunos chega ao ensino superior com poucas experiências com a leitura de textos complexos e conceituais, assim sendo, os estudantes têm enfrentado muitas dificuldades para compreenderem a linguagem dos textos científicos. Uma das estratégias que os alunos lançam mão para lidarem com as tarefas de leitura exigidas é a fragmentação dos textos, na qual os alunos dividem os textos em partes, ficando cada um responsável pela leitura de apenas um pedaço do texto fotocopiado. O suporte fotocópia afeta a qualidade das leituras e a relação dos estudantes com o espaço da biblioteca. A Cultura do Polígrafo tem funcionado como um dispositivo de banalização e de esvaziamento do sentido das práticas de leitura, as quais são percebidas pelos discentes, principalmente, como uma obrigação para o cumprimento das tarefas universitárias.
Resumo:
Partindo do pressuposto de que foco na forma pode beneficiar o processo de aprendizagem, este estudo foi desenvolvido com o objetivo de verificar o efeito de dois tipos de feedback corretivo, recast e elicitação, no desempenho de alunos de inglês como língua estrangeira. O estudo foi realizado com duas turmas de nível intermediário em um curso particular de idiomas que segue os princípios da abordagem comunicativa. É uma investigação experimental na qual o desempenho dos alunos foi testado antes e depois de receberem feedback corretivo durante a realização de tarefas ministradas pelos seus professores dentro de suas próprias salas de aula, sendo que uma turma recebeu feedback corretivo através de recast e a outra através de elicitação. A hipótese norteadora deste estudo foi que feedback corretivo fornecido ao aluno através de elicitação gera melhor desempenho do aluno do que recast, devido à exigência de que o aluno reformule seus próprios enunciados utilizando, para este fim, seus próprios recursos lingüísticos. Por outro lado, devido à natureza reformuladora de recast, este comportamento corretivo, no qual o professor faz a correção, não estimula o aprendiz a focalizar sua produção errônea com o intuito de corrigí-la. Os dados obtidos apontam que utilizar feedback corretivo na forma de elicitação é benéfico à aprendizagem.
Resumo:
A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.
Resumo:
O presente trabalho tem por objetivo desenvolver e implantar um sistema gerencial voltado à manutenção. Atualmente, é inadmissível imaginar que seja possível gerenciar um setor sem haver criado um sistema que gere informações e meios de se atingir metas – pré-definidas. Para fundamentar o projeto, foi realizada uma revisão bibliográfica nas ferramentas gerenciais, nos sistemas de gestão da manutenção e na relação entre a estratégia produtiva e a estratégia de atuação da manutenção. Primeiramente, será apresentada uma proposta do sistema gerencial da manutenção, demonstrando sua lógica de estruturação. A idéia consiste em criá-lo levando-se em consideração alguns aspectos básicos que agem como pilares, dando suporte ao modelo gerencial. Os denominados pilares do Sistema de Implantação e Gestão da Manutenção são os 5S’s, o fluxo organizado de informações, a manutenção planejada, a padronização, os colaboradores capacitados e motivados, a determinação de indicadores e metas e o aplicativo. A partir dos pilares foi desenvolvida a Estrutura o Sistema Gerencial em forma de diagrama de árvore, contendo todas as tarefas necessárias a sua implantação. Posteriormente, apresentar-se-á a aplicação prática do sistema através de um estudo de caso em um hospital. Este estudo de caso contém a descrição minuciosa do realizado em cada tarefa, esclarecendo e ampliando a compreensão do leitor diante do sistema gerencial.
Resumo:
As novas regras para as atividades econômicas ditadas pelo mercado globalizado trazem desafios às organizações. Frente a esse cenário, observa-se, portanto, o surgimento das alianças estratégicas como forma de obter conhecimento tecnológico e garantir seu lugar no mercado. O objetivo geral deste trabalho é descrever e analisar o processo de formação de alianças firmadas por seis empresas gaúchas de autopeças. O diagnóstico resultante permitiu elucidar o processo de formação das alianças, uma vez que nas empresas estudadas o tipo de parceria caracterizou-se principalmente como relações entre cliente e fornecedor. Os principais fatores motivadores ao estabelecimento das alianças foram mercado e tecnologia e os objetivos da maioria delas constituíam-se em obter vantagem competitiva e reduzir o time-to-market. Finalmente, a seleção dos parceiros foi feita através dos critérios relacionados às tarefas. Através da análise dos dados percebeu-se, também, que além de estar fundamentada em uma idéia de negócio viável e uma abordagem realista, uma aliança estratégica deve basear-se em cooperação entre as partes envolvidas. É necessário criar um clima de confiança e de entendimento recíprocos porque os parceiros estão trabalhando juntos pela primeira vez. Este desafio está intimamente relacionado ao tipo de acordo a ser firmado, às estratégias que se ajustam às empresas parceiras, aos efeitos potenciais de sinergia e às vantagens competitivas para cada parceiro. Enfim, o mais importante é que as empresas devem ser realistas em relação às vantagens e desvantagens potenciais das alianças, de modo que possam criar um clima de confiança e cooperação mútuos.
Sistemática para apoiar a identificação e a quantificação dos custos associados às ações ergonômicas
Resumo:
A ergonomia tem demonstrado a sua importância em vários trabalhos que visam proteger a saúde e a segurança, beneficiando trabalhadores e empresas. Utilizando uma abordagem participativa e um enfoque macroergonômico, a ação ergonômica possibilita identificar os problemas e fatores de risco apresentados em ambientes e/ou postos de trabalho. Além disso, permite a sugestão de alternativas que possam melhorar as condições de trabalho e da própria organização. Todavia, a identificação dos custos gerados por estes problemas ou fatores de risco é de difícil identificação, quantificação e apreciação. Para conseguir mensurar estes custos, faz-se necessário o uso de uma metodologia de custeio adequada. A metodologia de custeio ABC (Custeio Baseado em Atividades), através do uso de direcionadores de custo, possibilita alocar o consumo de recursos aos processos e tarefas desenvolvidos. lnteragindo a ergonomia com a metodologia de custeio ABC toma-se possível identificar os problemas ergonômicos e relacioná-Ios aos custos gerados. Esta pesquisa apresenta um estudo de caso realizado em uma empresa do ramo farmoquímico, objetivando assim, contribuir na proposição de uma abordagem para medição de custos ergonômicos. O estudo de caso foi desenvolvido em um setor específico da empresa, servindo como piloto para medição do custo total e unitário da tarefa, bem como daqueles oriundos de problemas ergonômicos. Dentre os resultados encontrados por este trabalho, pode-se destacar a mensuração do custo da tarefa de manipular NPT (Nutrição Parenteral Total), além do custo gerado por problemas e recursos ergonômicos.