37 resultados para Crítica de fontes
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Esta dissertação apresenta a análise crítica da aplicação de um método utilizado para implementação da Norma ISO Série 9000. Este método, denominado Bremen Quality Management (BQM), foi desenvolvido na Alemanha, onde vem sendo utilizado com sucesso junto a pequenas e médias empresas (PMEs). O objetivo principal do presente trabalho é analisar se este método também é adequado às necessidades das PMEs brasileiras. O trabalho inicia-se com uma revisão bibliográfica destinada a identificar as dificuldades enfrentadas pelas PMEs durante o processo de implementação da ISO 9000. Foram estudados também métodos potencialmente comparáveis ao BQM utilizados por algumas instituições atuantes na área dos Sistemas da Qualidade, tais como SEBRAE-RS e FUNDATEC-RS. Devido a uma questão de segredo comercial, a especificação formal do Método BQM não se encontra publicamente acessível, pelo que, num segundo momento, foi necessário reunir as informações disponíveis sobre o mesmo de modo a possibilitar a construção de documentação relacionada com a sua formalização. A análise do Método BQM foi realizada a partir da implementação da NBR ISO 9001 em uma empresa de médio porte localizada no Estado do Rio Grande do Sul, utilizando-se para isso a pesquisa participante.A sua implementaçãofoi possível devido à inclusãodessa empresa,bem como da UniversidadeFederaldo Rio Grandedo Sul, num projeto de pesquisa gerenciadopela instituiçãoestrangeiraque criouo MétodoBQM. Pela análise realizada, pode-se constatar que, apesar das oportunidades de melhorias identificadas, o método BQM pode auxiliar as PMEs brasileiras na implementação da ISO 9000. Por fim, são propostas alterações no método estudado, com a finalidade de melhorar a sua adequação às necessidades das PMEs brasileiras.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
Este trabalho refere-se a um estudo de identificação de fontes de sedimentos realizado em uma pequena bacia hidrográfica rural localizada em uma região montanhosa no sul do Brasil. Essa bacia representa um ecossistema típico de exploração agrícola, realizado por pequenos agricultores que cultivam fumo em áreas marginais, com conseqüências severas aos recursos naturais. A identificação das fontes de sedimentos, a partir dos sedimentos que são transportados em suspensão nos rios, possibilita avaliar quais são as áreas que estão realmente contribuindo para produção de sedimentos e, com isso, fazer inferências sobre o potencial poluidor desses sedimentos e, também, orientar as ações a serem realizadas para o controle da emissão desse sedimentos. A metodologia utilizada foi a aproximação fingerprinting. O trabalho explorou as principais limitações da metodologia, bem como as suas potencialidades na identificação das fontes de sedimentos. O método baseou-se em variáveis geoquímicas para discriminar as fontes de sedimentos e classificar os sedimentos em suspensão, utilizando técnicas de análise estatística multivariada. Dentre todas fontes possíveis de sedimentos na bacia, as possíveis de discriminação foram os potreiros, as lavouras e as estradas não pavimentadas. A classificação dos sedimentos em suspensão possibilitou a identificação da contribuição relativa das fontes, considerando lavouras e estradas como preponderantes. Os resultados mostraram que a contribuição dessas duas fontes foram variáveis no tempo e que a proporção relativa da contribuição de cada fonte variou de acordo com o manejo e a cobertura do solo que ocorreu nas lavouras e das obras de manutenção realizadas nas estradas. Entretanto, a contribuição média das fontes mostrou que as lavouras e as estradas contribuíram com 64% e 36%, respectivamente, dos sedimentos amostrados no exutório da bacia.
Resumo:
Esta Tese trata de discursos e representações presentes nas cartilhas ou primeiros livros usados na alfabetização no Estado do Rio Grande do Sul, entre 1890 e 1930. A partir do campo dos Estudos Culturais e das contribuições dos estudos pós-modernos, pósestruturalistas e da Análise Crítica do Discurso, em sua vertente foucaultiana, analiso discursos e representações que aparecem nessas obras, examinando também de que forma se harmonizam/circulam por outros discursos da época ou por narrativas que hoje se fazem deles/as. Metodologicamente, privilegio a interpretação textual, incluindo, além das cartilhas, outras fontes documentais, para contextualização desse período histórico. Organizo a análise em seis capítulos. No capítulo Em busca dos começos, discuto a “originalidade” da Cartilha maternal e do método de ensino da leitura que a orienta, de autoria do poeta luso João de Deus, considerando que tal obra é produto da interconexão de discursos e textos lusos, sob forte influência da produção metodológica francesa. Tal análise tem em vista contextualizar, em parte, a opção que o governo gaúcho fez de adoção oficial do método João de Deus. Cabe ao capítulo Progredir, melhorando a contextualização do projeto de Instrução Pública do Estado durante a primeira república, em seus contornos positivistas de valorização da pedagogia moderna A construção de escolas monumentais, a substituição da mobília escolar e a aquisição de material didático, próprios ao método de ensino intuitivo, ao método de leitura João de Deus e ao modo de ensino simultâneo, dão materialidade à reforma instituída. O capítulo O circuito cultural das cartilhas contempla a discussão de prescrições para o exame, aprovação e adoção de cartilhas e a análise de documentos de controle de sua distribuição às escolas públicas nesse período, já que custos de importação e edição impediam a aquisição da cartilha lusa, sendo esta substituída por cartilhas gaúchas. O capítulo A unidade de métodos e de doutrinas através de contrafações, similaridades e adaptações visibiliza, pela análise das lições de cartilhas adotadas - Maternal, Nacional e Mestra -, métodos de ensino da leitura e da escrita que orientavam a sua produção e de que maneira elas se aproximavam da obra “original” de João de Deus e de discursos que vigoravam à época Deslocamentos nos discursos sobre leitura e escrita podem ser evidenciados no primeiro livro Queres ler?, que suplantaria a Cartilha maternal. O capítulo A formação da identidade nacional nas páginas das cartilhas discute a valorização da língua, vultos e símbolos, para construção da unidade nacional republicana, bem como a comemoração de datas cívicas e o uso de apetrechos escolares nacionalizadores. O capítulo A escolarização da educação e da alfabetização trata da reinvenção desses conceitos, transpostos também para as lições das cartilhas, evidenciando como esses textos culturais contribuíram para formar o sujeito “civilizado”, isto é, o/a bom filho/a, bom/a aluno/a, e, por conseqüência, o/a bom/a trabalhador/a, o/a bom/a cidadão e o/a bom/a brasileiro/a. Concluo, por fim, com esta pesquisa, que as cartilhas fizeram parte de uma cadeia de produção cultural, sendo sua intertextualidade marcada pelo impacto da interdiscursividade da modernidade republicana.
Resumo:
Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.
Resumo:
O experimento foi conduzido na Estação Experimental Terras Baixas da EMBRAPA Clima Temperado localizada em Capão do Leão – RS, de 03 de maio a 31 de setembro de 2000. Foram utilizadas oito vacas da raça Jersey, de alto mérito genético, com peso vivo médio de 420 kg, produção média de 20 kg de leite corrigida para 3,5% de gordura, na fase inicial de lactação (próximas ao pico de lactação), estabuladas em baias individuais, distribuídas em dois quadrados latinos (4 X 4), com o objetivo de avaliar o efeito de três fontes de gordura sobre a digestibilidade aparente de nutrientes, consumo de alimento, produção e composição do leite, eficiência alimentar e parâmetros sangüíneos. Foram testados quatro tratamentos: T1 (CON)- dieta sem inclusão de fonte de gordura; T2 (GP)- dieta com gordura protegida; T3 (FAIO)- dieta com farelo de arroz integral e óleo de arroz; T4 (FAIS)- dieta com farelo de arroz integral e sebo bovino. A mistura concentrada foi a base de grãos de milho moídos e farelo de soja, e como volumosos foram empregados silagem de milho e feno de alfafa.As misturas concentradas foram fornecidas três vezes ao dia separadamente dos volumosos. Os volumosos foram fornecidos à vontade, procurando-se manter a proporção de 55% em relação às misturas concentradas. A ordenha foi realizada mecanicamente duas vezes ao dia, sendo as produções somadas para a obtenção da produção diária. A interpretação estatística foi feita pela análise de variância dos valores médios de cada tratamento através do teste F. As fontes de gordura aumentaram a produção de leite (P<0,05). A gordura protegida foi mais digestível e acusou maior efeito (P<0,05) na produção de leite corrigida a 3,5% de gordura, na eficiência alimentar e nos níveis séricos de triglicerídeos e colesterol em relação à dieta controle.
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
O objetivo geral deste trabalho é analisar as relações existentes entre o capital social e as políticas públicas. Especificamente, pretende-se avaliar a capacidade de uma política pública brasileira em induzir a formação do capital social. Sendo esta política a “Linha Infra-estrutura e Serviços aos Municípios do Programa Nacional de Fortalecimento da Agricultura Familiar” (PRONAF). Fundando-se nas concepções de WOOLCOCK (1998), avalia-se que o capital social é uma noção teórica dinâmica e multidimensional, ocorrendo, portanto, vários tipos (institucional, extra-comunitário e comunitário) e dimensões (“enraizamento” e “autonomia”) de capital social. Conclui-se que o capital social ainda não é um conceito definido. Mas considera-se que é um arcabouço teórico emergente, com expressiva possibilidade de utilização nos estudos que procurem entender a importância das relações sociais no processo de desenvolvimento. Parte-se de uma crítica à concepção de capital social presente na obra de PUTNAM (1996). Avalia-se que o capital social não é formado apenas pelos “atributos culturais”, determinados historicamente, de uma dada população. O Estado também cumpre uma importante função “protetora” ou “coercitiva” que contribui para a formação do capital social social. Defende-se, inclusive (e de acordo com EVANS) que o Estado deve ter uma forma de atuação que seja mais “ativa” para a indução a formação do capital social, principalmente entre populações mais empobrecidas. São apresentadas experiências latino americanas de políticas públicas, que conseguiram êxito na indução a formação do capital social. A análise destas experiências evidenciaram que, em políticas públicas que visem à descentralização, o Governo central cumpre um papel primordial na proteção ao capital social emergente das populações pobres, em relação aos interesses dominantes das elites locais. E foi a adequada estratégia operacional destas políticas que permitiu que elas alcançassem tais objetivos Os principais mecanismos operacionais que estas políticas utilizaram para o seu sucesso foram a publicização, a formação e a capacitação, a proteção aos conselhos gestores locais e a presença de funcionários públicos, ao nível local, que cumpriam a função da “autonomia inserida”. A Linha Infra-estrutura e Serviços aos Municípios do PRONAF, que é o objeto desta investigação, é avaliada neste trabalho somente em relação à capacidade que possui em induzir a formação dos vários tipos e dimensões do capital social. As fontes empíricas utilizadas foram as várias pesquisas, estudos e relatórios de campo já elaborados sobre este programa. A hipótese básica de pesquisa foi comprovada e permitiu concluir que esta política pública têm uma baixa capacidade de indução a formação do capital social, especialmente o tipo institucional. Propõe-se a adoção de mecanismos operacionais em políticas públicas descentralizadas, ao moldes da Linha Infra-estrutura do PRONAF, com o objetivo de se buscar induzir a formação do capital social. E, por último, defende-se a importância da utilização de políticas públicas descentralizadas e da noção teórica sobre o capital social nas estratégias de desenvolvimento rural para o Brasil.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
A presente dissertação enfoca, a partir de um estudo de caso, o Programa de "Gestão da Produtividade Aplicada aos Correios" – GPAC –, numa empresa pública, a Empresa Brasileira de Correios e Telégrafos. Este trabalho tem por objetivo analisar criticamente um método para introduzir conceitos, princípios e técnicas de Administração e Engenharia da Produção, a partir de uma ótica de uma organização que aprende – learning organization –, tendo como objeto de análise a ECT. Parte-se de uma perspectiva histórica que procura abordar a evolução do programa "Gestão da Produtividade Aplicada aos Correios" na Organização, desde sua fase inicial, em 1995, até o seu desenvolvimento no momento atual. Descreve-se as principais atividades desencadeadas, seguindo sua ordem cronológica. Após uma fundamentação teórica, descrevendo abordagens de diversos autores sobre aprendizagem organizacional, é analisado o programa GPAC à luz dos pressupostos de organizações de aprendizagem preconizados por Garvin, propondo-se um novo método. Neste novo método são apresentadas algumas alterações e inclusões em relação ao método adotado no programa GPAC, visando auxiliar na eficácia da disseminação e implantação de novos conceitos, princípios e técnicas de Administração e Engenharia de Produção na Empresa.
Resumo:
Partindo de uma questão teórica preliminar – a representação e seus modos de articulação – este trabalho examina o papel da metalinguagem presente em obras de Clarice Lispector e Julio Cortázar como contributo vigoroso às reflexões teóricas, bem como à evolução literária. Com o enfoque temático centrado basicamente na linguagem, pretendemos defender esse tipo de abordagem comparatista como prática crítica eficaz no estudo da narrativa latino-americana, especialmente o conto e o romance. A estrutura do mesmo consta de uma introdução que funciona também como exposição metodológica e informa algumas fontes teóricas; dois Capítulos que consideramos o corpus propriamente dito: o primeiro A paixão segundo Sofia, apresenta aspectos sobre a vida e a obra da escritora, bem como a análise dos textos de nossa escolha; em exercício análogo, o segundo capítulo, Un tal Julio, focaliza Cortázar. O terceiro capítulo, Os perseguidores na dimensão de Moebius, procura, de um lado, amarrar aquelas que consideramos as linhas de força comuns às criações dos dois escritores – sempre focalizando a metalinguagem – e os pontos de contato e, de outro, indicar alguns dos aspectos que os distanciam. Optamos por não divorciar totalmente os pressupostos teóricos do corpus para imprimir um certo dinamismo à leitura. As fontes teóricas estão distribuídas em sincronia com a abordagem analítica que nos pareceu a mais exeqüível na organização e na tradução de idéias em palavras. Na conclusão, procuramos uma perspectiva autocrítica, que nos desse uma visão mais ampla sobre o próprio percurso do trabalho realizado nos três capítulos e que contemplasse algum cotejamento entre o texto ficcional contemporâneo, a crítica, a filosofia da linguagem e o ser da própria literatura como responsável pela evolução espiritual do homem.
Resumo:
Esta dissertação apresenta o programa Seis Sigma e o ramo petroquímico. O objetivo deste trabalho é realizar uma análise crítica do processo de implantação de um projeto Seis Sigma em um setor de uma indústria do ramo petroquímico. A empresa focada desejava obter a diminuição da variabilidade presente na diferença entre os níveis de viscosidade da entrada e da saída em um setor de coagulação e acabamento de látex. Para tanto, é usado um método chamado DMAIC, termo provindo das palavras Define, Measure, Analyze, Improve e Control, que identificam cada uma de suas fases. Na dissertação são abordados Análise dos Modos de Falha e seus Efeitos (FMEA), Projetos de Experimentos (DOE), Controle Estatístico de Processo (CEP), Análise de Sistemas de Medição (ASM), Aprendizagem Organizacional, PDCA e Desdobramento da Função Qualidade (QFD). O autor faz uso da pesquisa-ação, com uma abordagem basicamente quantitativa. Na fase Analisar do projeto detectou-se uma ineficiência do sistema de medição para os objetivos do projeto, assim como, no laboratório as leituras a partir de borracha seca apresentam menor variabilidade que as leituras a partir do látex em estado aquoso. A idade dos rotores e a pressão utilizada nos viscosímetros não são significativas para a redução da variabilidade nas leituras. Porém, a adoção de banho térmico no látex e o reposicionamento dos termosensores nos viscosímetros mostraram-se eficazes. Na fase Controlar ao final do projeto ficou evidenciada uma redução no número de lotes redirecionados. A principal dificuldade encontrada na implementação do método DMAIC foi o acompanhamento inadequado dos indicadores técnicos e financeiros. Houve atrasos no cronograma em função da má definição dos papéis das pessoas envolvidas no projeto, pela falta de uma agenda clara de trabalho e pelo uso de um problema muito complexo em um único projeto.