999 resultados para processamento de sinal
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
O rápido avanço tecnológico coloca a tecnologia do Si diante de um grande desafio: substituir o dielétrico de porta utilizado por mais de 40 anos em dispositivos MOSFET (transistor de efeito de campo metal-óxido-semicondutor), o óxido de silício (SiO2), por um material alternativo com maior constante dielétrica. Nesse contexto, vários materiais têm sido investigados. Nesta tese concentramos nossa atenção em três candidatos: o óxido de alumínio (Al2O3), o silicato de zircônio (ZrSixOy) e o aluminato de zircônio (ZrAlxOy). Nossos resultados experimentais baseiam-se em técnicas de análise com feixes de íons ou raios-X e de microscopia de força atômica. No caso do Al2O3, investigamos a difusão e reação de oxigênio através de filmes relativamente espessos (35 nm) quando submetidos a tratamento térmico em atmosfera oxidante, e os efeitos que esses processos provocam em filmes finos (6,5 nm) de Al2O3 depositados sobre uma estrutura SiO2/Si. Observamos que o processo de difusão-reação em filmes de Al2O3 é diferente do observado em filmes de SiO2: no primeiro caso, oxigênio difunde e incorpora-se em todo o volume do filme, enquanto que em filmes de SiO2, oxigênio difunde através do filme, sem incorporar-se em seu volume, em direção à interface SiO2/Si, onde reage. Além disso, quando oxigênio atinge a interface Al2O3/Si e reage com o Si, além da formação de SiO2, parte do Si migra em direção ao Al2O3, deslocando parte dos átomos de Al e de O. Modelos baseados em difusão e reação foram capazes de descrever qualitativamente os resultados experimentais em ambos os casos. A deposição de filmes de Al2O3 sobre Si por deposição química de camada atômica a partir de vapor também foi investigada, e uma nova rotina de deposição baseada em préexposição dos substratos de Si ao precursor de Al foi proposta. As estruturas ZrSixOy/Si e ZrAlxOy/Si (ligas pseudobinárias (ZrO2)z(SiO2)1-z e (ZrO2)z(Al2O3)1-z depositadas sobre Si) foram submetidas a tratamentos térmicos em oxigênio ou vácuo com o objetivo de investigar possíveis instabilidades. Os tratamentos térmicos não provocaram instabilidades na distribuição de Zr, mas migração e incorporação de Si no filme dielétrico foram observadas durante os dois tratamentos para ambos os materiais.
Resumo:
Diversos estudos sugerem que os receptores inibitórios GABAérgicos do tipo A estão envolvidos no processamento da memória. Para examinar o papel dos receptores GABAA na consolidação da memória, ratos foram implantados bilateralmente com cânulas na região CA1 do hipocampo, córtex entorrinal, córtex parietal posterior e núcleo basolateral da amígdala, e treinados na tarefa de esquiva inibitória. Em diferentes tempos depois do treino, o antagonista dos receptores GABAA - bicuculina - foi infundido nas estruturas acima mencionadas. A bicuculina facilitou a memória quando infundida imediatamente após o treino (0h) no hipocampo, córtex entorrinal e córtex parietal posterior; 1,5h no hipocampo; 3h no córtex entorrinal e no córtex parietal. Nos tempos mais tardios da consolidação da memória (4,5h e 6h) não houve facilitação. A bicuculina não teve efeito na memória quando administrada na amígdala em nenhum dos tempos. Nossos dados sugerem que os receptores GABAérgicos inibem os primeiros momentos da consolidação da memória de longa duração no hipocampo, córtex entorrinal e córtex posterior, mas não nos tempos mais tardios.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.
Resumo:
As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.
Resumo:
O grande desenvolvimento da industria eletrônica, aliado ao aumento do consumo de bens pela população, gera um número cada vez maior de equipamentos defeituosos e obsoletos, entre eles as Placas de Circuito Impresso (PCI), as quais precisam ser dispostas. A sucata destas placas representa uma matéria prima interessante, pois contém metais e ligas metálicas, o que torna sua reciclagem bastante atraente. Como linha geral, as PCI possuem 49% de materiais cerâmicos, vidros e óxidos, 19% de plásticos, 4% de bromo e 28% de metais. A composição real depende da origem do circuito impresso, assim como do tipo e idade do equipamento. O uso do Processamento Mecânico na reciclagem desse resíduo é uma alternativa na recuperação dos metais presentes e também uma maneira de separar seus vários componentes, permitindo assim dispor adequadamente este resíduo. Neste trabalho as PCI passaram por várias etapas de processamento mecânico. Primeiramente foram moídas abaixo de 1mm e após foram classificadas, caracterizadas e diferentes frações foram separadas por densidade. A primeira classificação foi feita por granulometria e gerou três frações diferentes: uma menor que 0,25mm, outra entre 0,25 e 0,50mm e outra entre 0,50 e 1,0mm. Após foi feita uma separação por densidade obtendo-se uma fração rica em metais, em especial o cobre, e outra fração leve composta por polímeros e cerâmicos As frações classificadas por granulometria e as frações leves originadas da separação por densidade foram lixiviadas para caracterizar o resíduo a respeito da sua toxicidade antes e depois do processo. O uso do processamento mecânico mostrou-se muito eficiente na recuperação dos metais, pois foi possível recuperar cerca de 80% dos metais presentes, com destaque para o cobre, que representa quase 75% da fração metálica. Através da lixiviação foi determinado que as PCI deveriam ser classificadas como resíduos perigosos, pois apresentam uma concentração de chumbo bem acima do permitido. Após a separação por densidade foi feito novamente ensaio de lixiviação e embora a concentração de Chumbo na fração leve tenha diminuido significativamente ela ainda permaneceu acima dos limites estabelecidos pelas normas brasileiras.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
Resumo:
Neste trabalho, fazendo uso da teoria das equações, iremos cotejar a aplicação de dois métodos clássicos de separação de raízes. Tais métodos, especializados para a "separação" das taxas internas de retorno de um projeto, são superiores às condições de suficiência pois que permitem a determinação do número exato de taxas internas de retorno associadas a um projeto, no intervalo de taxas de juros considerado.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Com a abertura do mercado brasileiro e aumento da pressão competitiva, as organizações têm buscado incessantemente a melhoria de desempenho de seus processos produtivos. Dentro deste contexto, surge a Manufatura de Classe Mundial, que se caracteriza pela alta disponibilidade e flexibilidade dos meios de produção. Para o alcance desse estágio na manufatura, a manutenção industrial é um elemento chave, que, adaptada ao ambiente de competição globalizado, caracteriza o que se chama de Manutenção de Classe Mundial (MCM), representando um importante diferencial competitivo. Nas Indústrias de Processamento Contínuo do segmento petroquímico, em particular, a manutenção industrial tem papel ainda mais decisivo, ao assegurar o funcionamento estável e seguro dos equipamentos e instalações a custos otimizados, sem comprometimento da saúde e segurança dos trabalhadores e com respeito ao meio ambiente. Apresenta-se nesta dissertação uma proposta de fundamentos habilitadores para a implantação de um sistema de gerenciamento de manutenção, totalmente integrado com o processo produtivo, desenvolvido e aplicado numa refmaria de petróleo brasileira. Os fundamentos selecionados com base nos princípios da MCM,juntamente com outros temas relevantes como planejamento e gestão estratégica, estrutura e aspectos organizacionais, mapeamento de processo, terceirização, suprimento de materiais e sobressalentes e política de Segurança, Meio Ambiente e Saúde Ocupacional, apresentam-se como decisivos para o sucesso do sistema de manutenção implementado.
Resumo:
Este estudo visa analisar a relação entre a produtividade e as condições de trabalho de funcionários em uma área de Processamento de Vegetais de uma Indústria de Refeições Coletivas. O trabalho foi desenvolvido em forma de estudo de caso, e a metodologia utilizada, neste estudo, caracterizou-se como uma pesquisa descritiva, cujos sujeitos da pesquisa foram funcionários da área específica. Para tanto, os instrumentos utilizados para uma avaliação integrada da área da ergonomia, produtividade e layaul, foram: relatórios gerados pelo Departamento Pessoal da empresa; observação direta e utilização de filmagens e fotografias das atividades realizadas; entrevistas, elaboração da matriz produto x processo e de fluxos de processos constando tomadas de tempo e distância e, por fim, análise dos dados e recomendações. Fizeram parte deste estudo 29 funcionários, com a faixa etária variando entre 19 e 49 anos. Constatou-se que o trabalho exige esforço físico, movimentos repetitivos por longos períodos, carregamento e levantamento de peso, postura em pé e deslocamentos durante a realização das atividades. Algumas tarefas foram classificadas como penosas, segundo a percepção dos próprios funcionários, fato que pode estar relacionado com o significativo número de atestados e afastamentos. Observou-se também que ocorrem cruzamentos entre as tarefas, assim como a formação de gargalos, conseqüentemente ocasionando problemas de fluxo. As recomendações envolvem questões pertinentes às condições organizacionais, visando um funcionamento mais satisfatório, através de rearranjos dos postos de trabalho e redução do fluxo. Estas recomendações possibilitariam uma melhor organização nos postos de trabalho, um maior controle de produção, através da separação segundo as características dos processos e, possivelmente na qualidade das condições de execução das tarefas.