154 resultados para sistema de análise
Resumo:
Este trabalho teve o intuito de desenvolver um sistema informatizado, para elaborar os desenhos de seções transversais, solicitados durante a execução de obras rodoviárias. Para atingir o objetivo, durante a análise, o desenvolvimento e os testes do sistema, buscou-se uma constante troca de idéias com os profissionais que atuam em terraplenagem. Com isso, ao final do trabalho, os usuários já estavam familiarizados com o sistema ,dispondo mais uma ferramenta de trabalho para auxiliá-los nas medições.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Este trabalho analisa as transformações ocorridas nos sistemas de produção dos agricultores produtores de leite do município de Jóia, que tiveram seus rebanhos sacrificados devido a ocorrência da febre aftosa, em 2000. Os dados para a composição, análise e comparação dos sistemas de produção foram coletados junto a 40 agricultores e contemplam informações agronômicas e sócio-econômicas do período anterior e posterior a ocorrência da doença. Como ponto de partida tomou-se unidades de produção que implementavam a produção de leite e derivados para a comercialização, antes da ocorrência da doença. A partir de uma metodologia fundamentada na Abordagem Sistêmica, o presente estudo consistiu basicamente numa análise histórica do município a partir da evolução e diferenciação dos Sistemas Agrários e, na descrição, comparação e análise dos sistemas de produção da região diretamente impactada pela febre aftosa no município. Como resultados, constatou-se que o município de Jóia, por razões geográficas, históricas, mas, principalmente, em função da ocupação do meio, evoluiu, ao longo do tempo, sob a égide de dois Sistemas Agrários (Sistema Agrário de Campos e Sistema Agrário de Florestas), cada qual com suas respectivas fases e diferenciações. Quanto aos Sistemas de Produção identificou-se, antes da ocorrência da febre aftosa, três sistemas de criação que envolviam animais para a produção de leite e derivados e seis sistemas de produção que implementavam a produção de leite para fins comerciais, juntamente com o cultivo de grãos seja em pequena, média ou grande escala Após a ocorrência da febre aftosa, identificou-se mais uma vez, três sistemas de criação que envolvem animais leiteiros, cinco sistemas de produção que voltaram a reimplementar a produção de leite para comercialização e três sistemas de produção em que os agricultores não reimplementaram a pecuária de leite em suas respectivas unidades de produção. Passados mais de dois anos da ocorrência da febre aftosa em Jóia, entre os oito sistemas de produção do período posterior à ocorrência febre aftosa, somente dois (SP8 e SP6’) registraram evolução positiva nos indicadores de renda relacionados às atividades agropecuárias, sendo que um deles não mais contempla a produção de leite em escala comercial. Considerando somente o rebanho bovino leiteiro, ocorreram, sistematicamente, a redução dos animais leiteiros e da produção anual em todos os sistemas, um sistema de produção apresentou evolução positiva no efetivo de animais em lactação (SP6’), e um sistema registrou o aumento da produtividade (SP1’). Constatou-se ainda, que na região estudada, apesar da reconhecida importância da pecuária leiteira, a mesma perdeu espaço para a cultura da soja.
Resumo:
Este estudo trata da análise do desempenho da intermediação de mão-deobra, que se constitui em um dos instrumentos das políticas públicas de emprego do âmbito do Sistema Nacional de Emprego (SINE). O estudo tem o propósito de identificar os fatores de sucesso e insucesso deste serviço, assim como de sugerir linhas de ação para a melhoria do mesmo. Para alcançar este fim, foram ouvidos os três principais atores do processo de intermediação de mão-de-obra da Unidade Central do SINE de Porto Alegre: trabalhadores, empresas e funcionários do SINE. A intermediação de mão-de-obra ganha destaque quando o Estado passa a ser pressionado para apresentar soluções aos graves problemas do desemprego e às suas conseqüências negativas para as pessoas. Dessa forma, os Estados nacionais têm revalorizado as políticas voltadas para o mercado de trabalho. O novo nessas políticas é a constituição de sistemas públicos de emprego com o propósito de articular a intermediação, o seguro-desemprego e a qualificação profissional. Frente às dimensões e às características do desemprego, de longa duração, a intermediação assume papel estratégico para auxiliar, com agilidade, o desempregado a encontrar uma nova colocação no mercado de trabalho e, ainda, por deter mais informações sobre a demanda e a oferta de trabalho, ela tem as melhores condições de encaminhar esses trabalhadores à qualificação profissional e para alternativas de geração de emprego e renda. Os resultados da pesquisa evidenciam a importância do SINE para uma grande parcela de trabalhadores de baixa renda, para os quais o mesmo representa a principal alternativa de aproximação com o mercado de trabalho. Por outro lado, apontam limites do SINE para realizar a intermediação de mão-de-obra de forma 6 mais ágil e qualificada. Também evidenciam-se limites de gestão, de estrutura e de operacionalização que o SINE deve superar, dentre os quais destaca-se a desarticulação no processo de atendimento aos trabalhadores e às empresas e entre os instrumentos de política do SINE.
Resumo:
Este trabalho tem o objetivo de analisar o efeito da implantação da Norma ISO 9000 em Micro e Pequenas Empresas, elaborado através de uma pesquisa quali/quantitativa em um grupo de empresas de micro e pequeno porte no estado do Rio Grande do Sul, empresas estas certificadas pelas Normas NBR ISO 9000, no período de 1998 a dezembro de 2000, com o apoio do SEBRAE/RS por meio do Programa Rumo à ISO 9000. Para tanto, abordaram-se questões referentes a competitividade, qualidade e sistema de garantia da qualidade. Foram pesquisadas 60 empresas e obteve-se um retorno de 53% da amostra pesquisada. Das empresas que responderam, 28% representam o setor de serviços; 10%, o comércio e 62% são representantes da indústria. Essas empresas estão estabelecidas 25% em Porto Alegre, 22% na região metropolitana e 53% no interior do estado, destacando-se como maioria empresas da região serrana. A coleta de dados foi realizada por meio de um questionário estruturado, enviado via correio e também algumas entrevistas por telefone. Os resultados obtidos evidenciaram que as empresas tornaram-se mais competitivas após a certificação pela ISO 9000. Destacou-se também que a maior dificuldade encontrada pelas empresas durante e após o processo de certificação foi a falta de preparação e comprometimento das pessoas que compõem as empresas.
Resumo:
A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.
Resumo:
O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.
Resumo:
A presente dissertação de mestrado compreende o projeto e a execução de uma balança eletro-mecânica. Este equipamento tem por finalidade a medição das seis componentes dos esforços atuantes na base de modelos de edificações alteadas, ensaiadas em túnel de vento. As componentes medidas servirão como subsídio para o desenvolvimento do projeto estrutural e de fundações das edificações modeladas. A fim de tornar o mais abrangente possível sua utilização, foi estudada a magnitude de esforços e freqüências de vibração, devidas ao vento no modelo ensaiado, a que o sistema está submetido. Estas grandezas são os critérios de projeto para o desenvolvimento do sistema de medição. Deste modo, desenvolve-se um equipamento capaz de ser utilizado em estruturas dos mais variados tipos, como, por exemplo, torres, chaminés e edifícios alteados. O sistema de medição em estudo consiste em três partes: um conjunto de células de carga dispostas de forma a medir as componentes dos esforços, um circuito eletrônico para amplificação e condicionamento do sinal produzido em cada célula de carga, e um microcomputador para aquisição e armazenamento dos dados produzidos pelo sistema. Como resultados são apresentados os ensaios realizados em túnel de vento com modelos bem definidos, a fim de testar o sistema. As conclusões do trabalho ficam por conta da interpretação dos resultados e análise da utilização deste tipo de equipamento para determinação de coeficientes globais de vento em edificações.
Resumo:
Este trabalho realiza uma análise do potencial dos sistemas centralizados para controle de tráfego no Brasil, executando uma comparação entre as diferentes tecnologias disponíveis, e os conseqüentes resultados obtidos. Estes resultados são apresentados, através de "cases", na forma de benefícios obtidos, comparados com os custos associados para a implantação de cada sistema. As partes que compõem estes sistemas são apresentadas através de um histórico do controle de tráfego e das evoluções tecnológicas dos equipamentos e dos critérios de controle utilizados. Um resumo dos panoramas atuais, americano e brasileiro, permite uma comparação, quanto à utilização e investimentos em sistemas centralizados para controle de tráfego. Ao final do trabalho é apresentada uma proposta, adequada à realidade brasileira, para implantação de sistemas centralizados de tráfego, baseada em uma metodologia de implantação em etapas, com investimentos e benefícios crescentes, atendendo gradativamente à demanda de cada município.
Resumo:
A competitividade está cada vez mais acirrada, em nível mundial, obrigando as empresas a fazerem verdadeiros malabarismos para definir suas políticas de precificação. Para atingir esse objetivo de forma eficaz, as empresas precisam ser ágeis e inovadoras, pois a concorrência está cada vez mais agressiva. Visando à redução da dificuldade do decisor na elaboração e na escolha de políticas comerciais, este estudo apresenta a concepção, o desenvolvimento e a validação de um Sistema de Apoio à Decisão Comercial, denominado de SADEC. A concepção foi antecedida pela avaliação das variáveis que influenciam a formação do preço e pela elaboração dos modelos matemáticos que dão sustentação ao SADEC. Durante essa fase de estudo, foram apresentadas algumas inter-relações entre as variáveis do preço que contribuem na avaliação da relação custo-volumelucro. Para a concepção, o desenvolvimento e a validação do SADEC foi utilizada a metodologia de análise consolidada pela pesquisa operacional. Com a concepção e o desenvolvimento do SADEC foi criado um sistema que auxilia o decisor a estabelecer e avaliar vários cenários, visando à criação de uma melhor política de preficicação. A validação do SADEC, foi realizada junto a três redes comerciais, com sede em Caxias do Sul, onde foi possível verificar a sua validade, e apresentou evidências concretas de que tal sistema é de grande utilidade para a definição de políticas comerciais. Acredita-se que este estudo contribua para a análise da relação custo-volume-lucro e, principalmente, para o estudo do processo decisório no impacto do uso de sistemas de apoio à decisão para a redução das dificuldades na definição de políticas comerciais.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.
Resumo:
Este trabalho visa abordar um aspecto importante em um sistema de gestão empresarial - a mensuração dos custos relacionados à qualidade e a proposição de melhorias a partir da análise destes custos. Um dos obstáculos mais importantes para o estabelecimento e consolidação de programas de qualidade nas empresas é a idéia errônea de que alta qualidade implica, necessariamente, em alto custo. Na maioria das vezes, as organizações não possuem indicadores que mensurem tais custos, tomando decisões equivocadas em relação ao nível de qualidade a ser praticado em seus produtos ou serviços. Em diversos contextos, prevalece a ênfase no retomo imediato, sem se considerar os custos com perdas pela não-qualidade. Esta dissertação busca identificar e analisar os custos diretos relacionados à qualidade nas suas quatro grandes categorias. As primeiras duas categorias incluem os custos que aparecem quando a função qualidade falha (custos da não-qualidade). São os chamados custos de falhas internas e custos de falhas externas, de acordo com a situação do produto no instante da falha, se dentro da empresa ou após ter sido vendido aos clientes. As duas últimas categorias incluem os custos da função qualidade (ou custos da qualidade propriamente dita), divididos em custos de prevenção, englobando tudo o que é feito para prevenir defeitos, e custos de avaliação, que reúnem os esforços despendidos para remover do processo os produtos defeituosos. Para garantir a sua sobrevivência no mercado, empresas devem estar preparadas para medir seus custos de qualidade e de não-qualidade, visualizando oportunidades de redução de custos e tomada de ações para a melhoria contínua do ambiente produtivo, justificando assim o investimento em qualidade Apoiando-se numa sistemática estruturada,o trabalho faz a identificação e análise dos custos diretos relacionados à qualidade. Um estudo prático, realizado em uma indústria de balas no estado do Rio Grande do Sul, demonstra a importância estratégica e econômica da identificação, análise e gerenciamento desses custos, propondo melhorias decorrentes da análise das causas dos principais valores levantados, destacando ainda as melhorias propostas a partir desta análise na empresa em estudo. O estudo identificou que a principal categoria de custos relacionados à qualidade refere-se à categoria de custos das falhas internas que correspondem,em média, à 12% do faturamento da empresa. Além disso, o impacto na redução dos custos da não-qualidade ultrapassa o lucro líquido da empresa.