43 resultados para Jabuticaba - Processamento
Resumo:
This project intends to analyse quality management in Brazilian processing segment. The study was undertaken through the mailing of an extensive questionnaire to a convenience sample of large-, mid- and small-sized companies. The survey covers social-organizational, technical-technological and economical-competitive aspects of the firms. It has appraised the procedures used in quality management as well as the results achieved by firms on this respect. This research is part of a worldwide program on quality management, under the coordination of Prof. Gustavo Vargas from California State University at Fullerton.
Resumo:
Efetua uma análise sobre a Amplitude dos Problemas de Comunicação Intraorganizacional entre a Estrutura de Processamento de Dados e o restante de uma Organização e determina suas possíveis causas, com base no Modelo de Empresa como um Sistema Sócio-Técnico Aberto. Para tal fim: consulta-se não só bibliografia tradicional norte-americana como também brasileira e japonesa; adota-se uma postura tanto quanto eclética e também menos ortodoxa, sem no entanto se ter a pretensão de polemizar.
Resumo:
Esta dissertação procura mostrar uma metodologia de apuração e distribuição de custos de sistemas e processamento de dados e sua integração em controles gerenciais de conglomerados financeiros, através da exploração de um modelo de avaliação econômica por centro de responsabilidade.
Resumo:
Este trabalho tem por objetivo analisar as mudanças no sistema informatizado de orçamentação prévia dos serviços de caldeiraria que são realizados nas paradas de manutenção das unidades de processamento da Refinaria Duque de Caxias da PETROBRAS. Para tal fim, apresenta-se, inicialmente, um breve histórico da legislação que orientou as contratações de serviços na PETROBRAS sob a óptica da exigência de uma orçamentação prévia e a contextualização desta orçamentação no processo de contratação da Refinaria Duque de Caxias. Em seguida, são estudadas as variáveis que influenciam o orçamento dos serviços em análise, inclusive àquelas referentes a tributos e impostos, bem como os sistemas informatizados (atual e anterior) que calculam os preços finais dos serviços. Concluiu-se que o novo sistema informatizado trouxe mmor confiabilidade aos valores encontrados, mas ainda há muito que ser feito nesta área, desde a determinação de índices de produtividade da mão-de-obra até o estudo mais detalhado dos insumos ligados à legislação trabalhista e tributária.
Resumo:
Este trabalho examina a lateralização cerebral de funções e sua implicação para a cognição humana ao nível da intersecção entre a neuropsicologia clinica e a psicologia cognitiva de base informacional. A primeira parte do trabalho e dedicada a descrição e análise critica da conformação contemporânea desta área de investigação neuropsicológica, com a ênfase posta na metateoria e teorias predominantes, a par do sistema conceitual utilizado nas atividades de pesquisa desenvolvidas na área. Inicialmente, a abordagem neuropsicológica do problema da lateralização cerebral examinada no que concerne às suas articulações com os métodos e técnicas que se mostraram mais importantes para a configuração atual desta área de investigação, sob um enfoque histórico. Em continuidade, a análise dirigida às questões mais fundamentais nas quais se tem desdobrado o problema da assimetria funcional inter-hemisférica, representadas pelas especializações funcionais dos hemisférios cerebrais, pela atividade conjunta dos hemisférios e pelas relações entre diferenças individuais na lateralização cerebral e desempenho cognitivo. Neste contexto são sublinhadas as dificuldades e inconsistências relacionadas à restritividade do enfoque prevalente, avaliado como expressão de uma concepção neuropsicológica excessivamente simplificadora do problema compreendido pelas relações entre o cérebro e a cognição humanos. O trabalho apresenta, em sua segunda parte, uma tentativa de desenvolvimento de um enfoque sistêmico, na direção da complexidade, para o problema da lateralização cerebral de funções. Trata-se de um desenvolvimento que parte de uma descentração da dimensão lateral do sistema nervoso e resulta em uma subsunção deste problema à uma perspectiva mais global concernente à organização cerebral de funções e aos fundamentos para a construção teórica na neuropsicologia. Segue-se um exame das implicações deste enfoque para a questão das relações entre variações inter-individuais na lateralização cerebral de funções e habilidades cognitivas que se direciona para uma minimização do significado que tem sido atribuído a lateralizarão para o funcionamento cerebral e a cognição humanos. O trabalho apresenta, finalmente, um estudo empírico referente às relações entre variações inter-individuais normais de lateralizarão cerebral ,preferência manipulatória e sua história familiar e desempenho cognitivo, onde são comparados os desempenhos de destros com história familiar de sinistralidade negativa e de canhotos com esta história positiva no Teste WAIS. Os resultados obtidos mostram uma inequívoca semelhança nos desempenhos dos dois grupos em todas as escalas do WAIS. Estes resultados são discutidos principalmente no que tange à existência ou não de correspondências diretas entre variações normais nas representações das funções ao longo da dimensão lateral do sistema nervoso, preferência manipulatória e habilidades cognitivas. A conclusão final conforma-se como um sumário integrativo dos principais aspectos das conclusões atingidas no curso do trabalho.
Resumo:
Nos últimos anos, a relevância da Teoria dos Grafos na descrição da rela ção entre indiví duos cresceu signifi cativamente, contribuindo para a ascensão do fenômeno das redes sociais. Sua importância tem permitido a explora ção polí tico-econômica de informa ções escondidas em sua estrutura. Assumindo que um parlamentar maximiza sua utilidade ao fortalecer o seu partido e o estado que representa, construímos uma rede política baseada no Congresso Brasileiro, o que permite a identificação de elementos da Teoria do Seletorado. Através de técnicas de Processamento de Linguagem Natural aplicadas à diferentes fontes de notícia, é possível atualizar a rede de forma a identificar alterações na estrutura de poder do sistema político brasileiro.
Resumo:
É senso comum que o texto escrito é uma importante forma de registrar as informações e que atualmente grande parte desse conteúdo informacional está disponível em meio digital. Entretanto, de maneira geral, os computadores lidam com o texto como sendo uma cadeia de caracteres que não têm nenhum significado. A área de Processamento de Linguagem Natural (PLN) vem se empenhando em extrair significados do texto. Nesse sentido este trabalho apresenta uma revisão desse tema e propõe um método automatizado que utiliza uma heurística determinística denominada Heudet que visa extrair bigramas do texto. A meta é extrair o significado do texto através de um conjunto de expressões multipalavras identificadas. Os resultados obtidos foram melhores se comparados com aqueles que utilizam-se das técnicas de medidas de associação estatística obtidas pelo software Ngram Statistics Package (NSP).
Resumo:
O uso de resíduos da indústria canavieira, em particular o bagaço, é tema que ganha relevância desde a retomada do mercado de biocombustíveis, quando a produção ampliou significativamente o volume daquela biomassa. Existem trabalhos que tratam de apresentar subprodutos e tecnologias alternativas para o uso deste material e um conjunto outro de trabalhos apresenta análise de cenários de viabilidade econômica destas tecnologias. O objetivo deste trabalho é avaliar pela perspectiva econômico-financeira o melhor uso do bagaço da cana em um caso real. Para isto foi utilizada a Teoria das Opções Reais, como forma de analisar a melhor destinação do bagaço no horizonte de tempo de cinco anos, em uma dada a região, em um estudo de caso de uma usina sucroenergética com possibilidade de produção de etanol de segunda geração e/ou venda do bagaço in natura. Desta forma concluiu-se no caso apresentado que a produção de etanol de segunda geração em escala industrial não atrai investimentos e, sob esta ótica, deve ser postergada pois requer significativa aumento de produtividade por tonelada de matéria seca, além de substancial redução no custo das enzimas de fermentação. Ainda, foi possível também identificar a necessidade de políticas de incentivo para atração de investimentos.
Resumo:
O objetivo deste trabalho é prover um aplicativo de celular e um protocolo para aquisição de imagens para contagem dos ovos de Aedes aegypti com as seguintes características: facilidade de uso, alta acurácia e custo baixo. O mosquito Ae. aegypti, popularmente conhecido como mosquito da dengue, é um importante vetor de arboviroses como a própria dengue, a chikungunya, a zika e a febre amarela em seu ciclo urbano. O monitoramento entomológico é uma maneira de melhorar a capacidade de predição e na detecção precoce de epidemias das doenças mencionadas. Este monitoramento é majoritariamente baseado no índice larvário, o qual lista a quantidade de casas infectadas, ou a quantidade de ovos de Aedes coletados em palhetas em ovitrampas. Estas palhetas são normalmente de eucatex, mas existem pesquisas atuais testando o algodão.A contagem dos ovos coletados em ovitrampas é feita manualmente, a qual demanda tempo, profissionais qualificados para o manuseio de equipamento laboratorial (lupas e microscópios) e conhecimento entomológico. Buscou-se criar um método para acelerar o trabalho feito pelos profissionais em controle entomológico. A metodologia contou com a criação de um aplicativo e com um processo de contagem dos ovos, o qual consiste em quatro passos: a) Fotografar as palhetas em ovitrampas utilizando de uma câmera de celular; b) Transformar as fotos em uma imagem binarizada, removendo todos os elementos que não são ovos; c) Contar a área de cada elemento; d) A partir do uso de um classificador especialmente desenvolvido, estimar a quantidade de ovos baseado na área de cada elemento. Nos resultados, foi possível notar que houve uma disparidade na contagem de ovos em palhetas de algodão, a qual teve um erro médio próximo a zero, em relação às palhetas de eucatex, as quais tiveram erro médio acima de 5\%. Dos pontos mais importantes das conclusões, destacam-se a possibilidade de melhoria contínua do aplicativo por permanecer na nuvem, com possibilidade de avanços conforme novas descobertas, assim como o excelente custo-benefício obtido, por conseguir operar com baixo custo monetário.
Resumo:
Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.