86 resultados para processos-crime
Resumo:
Esta dissertação pretende consolidar um método quantitativo, flexível e genérico que possa ser útil na otimização experimental dos mais variados produtos e processos industriais medidos por múltiplas variáveis de resposta. O que se pretende com o método é identificar o ajuste ótimo dos fatores controláveis, ou seja, aquele que reduz os custos devido à má qualidade de um produto considerando também os custos de matéria-prima e energia gastos na fabricação desse produto. A redução dos custos gerados pela má qualidade de um produto é alcançada através da minimização dos desvios das variáveis de resposta dos seus valores alvos e maximização da robustez do produto ou processo aos fatores de ruído e a possíveis oscilações nos fatores controláveis, pois toda vez que uma variável de resposta desvia-se do seu valor alvo ou apresenta variabilidade, existe uma perda financeira experimentada pelo seu usuário. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam-se as etapas do método que devem ser cumpridas e algumas ferramentas consideradas eficientes no cumprimento dessas etapas. Logo após, realizam-se estudos práticos para validar o método e, baseado nesses estudos e no referencial teórico, conclui-se sobre o assunto.
Resumo:
As últimas décadas têm apresentado significativas mudanças no cenário intercapitalista mundial. Especialmente após a popularização internacional das filosofias e técnicas japonesas de gestão, partindo do Sistema Toyota de Produção, muitos estudos e metodologias têm sido desenvolvidos na busca da racionalização dos processos produtivos. Basicamente estes estudos foram centrados nas características da indústria de forma, vale dizer, bens de capital e bens duráveis de consumo. Neste sentido, surge um natural questionamento sobre a aplicabilidade destes conceitos e técnicas a outros tipos de processos produtivos, especialmente no caso da indústria de propriedade contínua, muitas vezes identifica da como indústria de transformação (incluindo refino de petróleo, petroquímica, papel e celulose, energia elétrica e outras), pelas características específicas apresentadas pela mesma. Assim, a presente dissertação analisa diferentes metodologias desenvolvidas para a indústria de forma, avaliando a possibilidade de aplicação de seus conceitos à indústria de propriedade contínua. Posteriormente, desenvolve um modelo analítico mais apropriado à realidade e característica deste tipo de indústria. A seguir, baseado nas conclusões do modelo analítico desenvolvido, estabelece os conceitos básicos de um modelo de gestão dos processos produtivos da indústria de propriedade contínua. Finalizando, são apresentadas as conclusões relativas à aplicação das diferentes metodologias, e em especial dos modelos desenvolvidos, à indústria de propriedade de produção contínua.
Resumo:
Este trabalho tem como objetivo verificar o comportamento mecânico e físico de pozolanas artifíciais estabilizadas química e granulometricamente, curadas por dois processos de cura denominados de : autoclave(ATC), que utiliza temperaturas na faixa de 149 a 188°C e câmara à temperatura constante(CTC) que utiliza uma temperatura de ± 21°C. Também fez-se análises estatísticas com a finalidade de se determinar o efeito da energia de moldagem, temperatura e tempo de cura sobre os resultados dos ensaios, para cada processo de cura, além de se determinar modelos matemáticos para previsão de resultados de resistência através de regressões múltiplas e simples. As pozolanas artificiais empregadas foram as cinzas volante e pesada da Usina de Candiota, as quais foram estabilizadas com cal dolomítica hidratada e areia do Rio Guaíba. Os ensaios de resistência à compressão simples , absorção e perda de massa basearam-se nas normas da ABNT e DNER e para os estudos de análise estatística, fez-se anteriormente aos ensaios, dois planejamentos experimentais denominados de Split-Splot e Quadrado Latino, que foram utilizados nos processos de autoclavagem e câmara à temperatura constante, representativamente. Os Corpos-de-Prova curados na câmara à temperatura constante, até os 28 dias de cura, apresentaram resultados de resistências inferiores aqueles curados pelo processo de autoclave. Aos 60 dias de cura suas resistências ficaram na faixa dos valores de Corpos-de-Provas curados pela autoclave nas temperaturas de 149 a 188°C, excessão feita na mistura utilizando areia, onde em todos os períodos de cura estudados,os valores de resistência dos Corpos-de-Prova curados pelo câmara à temperatura constante foram inferiores. A proporção da quantidade de cal e cinza na mistura, bem como o valor da superfície específica da cinza influenciam nos resultados de ensaios, independentemente da variação dos fatores principais. Em termos de análise estatística verificou-se que a energia de moldagem e o tempo de cura são os fatores que apresentam os maiores efeitos sobre os resultados da resistência, para os processos de cura ATC e CTC, respectivamente.
Resumo:
Esta dissertação aborda o controle e garantia da qualidade no processo de manufatura de óleo de arroz, através do monitoramento estatístico de variáveis de processo e produto, com vistas a atingir padrões de excelência no processo produtivo e na satisfação dos clientes. O Controle Estatístico de Processos (CEP) fornece uma descrição detalhada do comportamento do processo, identificando sua variabilidade e possibilitando controlar esta ao longo do tempo. O CEP utiliza cartas de controle de processo, auxiliando na identificação de causas comuns e especiais de variação. A dissertação apresenta uma revisão detalhada da literatura abordando dois temas principais: (i) controle dos processos de manufatura do óleo de arroz (ii) implantação do controle estatístico de processos. Após priorização das características de qualidade a serem monitoradas no processo e treinamento do pessoal, apresenta-se a implantação efetiva do controle estatístico no processo de manufatura de óleo de arroz, através das seguintes etapas: (i) Definição do projeto, (ii) Planejamento da implantação, (iii) Treinamento em controle estatístico de processos, (iv) Implantação efetiva e (v) Acompanhamento e consolidação. Através dos dados coletados ao longo da implantação, são apresentadas conclusões, comparando a estabilidade e capacidade dos processos das diversas características de qualidade monitoradas, antes e depois da implantação do controle estatístico de processos. Assim, verificou-se com a implantação do CEP nos postos 1 (preparação) e 2 (extração) foram obtidas melhorias e no posto 3 (refinaria) devido a falta de automatização dos processos, estes foram menos beneficiados.
Resumo:
Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.
Resumo:
As cartas de controle estatístico têm sido amplamente utilizadas no monitoramento do desempenho de processos. Com a crescente informatização dos processos industriais, tem-se verificado um aumento sensível na quantidade de informações disponíveis sobre variáveis de processo. Via de regra, essas variáveis apresentam-se fortemente correlacionadas. Em casos especiais, como nos processos em batelada, tais variáveis descrevem um perfil de variação ao longo do tempo, caracterizando o comportamento normal do processo. Nessas condições especiais, as cartas de controle tradicionais não proporcionam um monitoramento eficaz sobre o processo. Esta dissertação de mestrado apresenta uma alternativa para o monitoramento on line de processos em bateladas: a proposição de uma metodologia para implantação de cartas de controle multivariadas baseadas em componentes principais. A idéia central dessas cartas é monitorar simultaneamente diversas variáveis, controlando somente algumas poucas combinações lineares independentes delas; tais combinações são denominadas componentes principais. O presente trabalho ilustra a metodologia proposta em um estudo de caso realizado na etapa de fermentação do processo de fabricação de cerveja de uma indústria de bebidas, localizada na região metropolitana de Porto Alegre.
Resumo:
Esta dissertação analisa a espetacularização da criminalidade violenta operada pela televisão, buscando compreender como o jornalismo televisivo representa e produz a questão da criminalidade violenta no Brasil, tendo como referencial empírico o programa Linha Direta da Rede Globo de Televisão. Para analisar textos e imagens em movimento foi utilizada uma combinação de técnicas de pesquisa apoiada nos recentes e poderosos recursos das metodologias informacionais aplicadas à pesquisa qualitativa, mais especificamente o software NVivo. A investigação de uma amostra de programas gravados, relativa aos seis primeiros meses de exibição, permitiu constatar que o Linha Direta leva às últimas conseqüências a tendência do campo jornalístico em misturar jornalismo e ficção, ou seja, recursos da reportagem tradicional e dramaturgia, a partir da reconstrução dos casos criminais com atores. Embora o discurso do programa aponte para uma atuação alinhada com a realização da justiça frente à situação da criminalidade violenta – pelo oferecimento de uma forma de participação do espectador na resolução dos casos –, os elementos narrativos disponibilizados nas reconstruções dos crimes proporcionam a reprodução simbólica do sentimento coletivo de insegurança e impunidade e o reforço da percepção sobre a ineficácia da polícia e da justiça. A partir da exploração dramática e espetacular de imagens de dor, o programa busca legitimação para agir, não apenas como um colaborador das agências formais de controle, mas como um reinventor cultural das práticas jurídicas e de controle social, relativizando, em proveito próprio, os papéis das delegacias e tribunais na sociedade.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Diversas e velozes mudanças vêm ocorrendo nos últimos anos, e o aumento da competitividade é uma realidade presente no mundo empresarial. O gerente está no seio destes acontecimentos, desempenhando papel muito importante nos processos de inovação e mudança organizacional. Neste cenário, um novo conceito de competências gerenciais passa a ser valorizado. O conceito de competência, inicialmente associado à linguagem jurídica, vem sendo utilizado no mundo organizacional representando um conceito dinâmico, concretizado no desempenho; competência é saber, saber fazer e saber agir. A gestão de competências surge como um tema desafiador, dentro do subsistema de desenvolvimento humano da área de Recursos Humanos. Como um assunto novo e pouco estudado em nosso país, este trabalho apresenta resultados de uma pesquisa realizada em três empresas do Rio Grande do Sul, sobre as noções e processos de desenvolvimento utilizados na gestão de competências gerenciais. A metodologia utilizada foi de natureza qualitativa, através de estudo exploratório-descritivo.
Resumo:
A escritora objeto desta tese, figura proeminente da literatura neozelandesa, voltou-se ao gênero autobiográfico após um longo percurso na área da ficção, para definir-se como uma primeira pessoa, depois de sua vida particular ter sido insistentemente confundida com sua obra por parte da crítica. Uma questão que logo vem à tona é que praticamente toda ficção resulta ser, até um certo grau, fundamentalmente autobiográfica e que a análise crítica da obra de um escritor possibilita o conhecimento de sua vida. Nosso argumento, opondo-se a esse pressuposto, parte da vida para melhor compreender a obra, evidenciando que Janet Frame manteve um grande distanciamento entre os eventos reais e sua ficcionalização, realizando uma tarefa que a coloca lado a lado dos nomes mais ilustres da literatura ocidental do século XX. Numa atitude comparatista, procuramos extrair os diversos processos de transmutação estética realizados pela escritora, buscando sanar algumas distorções que impediram uma análise mais confiável de sua obra, problematizando, entre outros aspectos, a questão do gênero autobiográfico, da mímese e do realismo ficcional. A manipulação artística da vida particular de Janet Frame foi resgatada por um conjunto de processos, entre os quais a antimímese, a poetização do quotidiano, a intertextualidade e a interdiscursividade, que revelam um alcance estético e uma auto-referencialidade deslocada muito além do mero biografismo. Outros aspectos analisados na obra como um todo indicam que novas abordagens da ficção de Janet Frame, a partir de enfoques pós-modernos, pós-coloniais, pós-estruturalistas e feministas podem superar as posturas reducionistas das quais ela foi alvo.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
Sob a influência de instrumentos analíticos pós-estrututalistas, especificamente de abordagens associadas a Michel Foucault, bem como de dimensões dos Estudos Culturais e da etnografia, o trabalho aborda a caracterização da população presente nas escolas municipais de POA face às Políticas de Inclusão adotadas, agrupada prioritariamente nas Turmas de Progressão – agrupamento provisório de estudantes aos quais se atribuem defasagens entre a idade cronológica e o nível de conhecimentos – adotadas no Projeto Escola Cidadã: Ciclos de Formação. Os integrantes dessas turmas eram, na situação estudada, crianças e jovens pobres, multirepetentes, alguns com déficts orgânicos e ou psicológicos, muitos com carências materiais e afetivas graves, na maioria das vezes negros, sendo muitos deles oriundos de Classes Especiais. Havia também entre eles/as internos/as da antiga FEBEM, meninos/as de rua e na rua – em suma eram sujeitos que poderiam incluir-se na categoria dos “anormais” discutida por Foucault (1997) e/ou dos “estranhos” tal como foi nomeada por Bauman (1998). Analisam-se, também, na tese instrumentos usados nas práticas pedagógicas - as fichas da secretaria, os relatórios de avaliação, os dossiês – que atuam na constituição e disciplinamento desses sujeitos/alunos e também de suas professoras. A percepção de que é preciso dar aula para quem não sabe ainda ser aluno e aluna e da negação do papel produtivo da pedagogia neste processo de constituição, sujeição e disciplinamento emerge das discussões conduzidas a partir de constatações feitas relativamente aos grupos estudados.