18 resultados para Sistemas de transmissão de dados
em Biblioteca de Teses e Dissertações da USP
Resumo:
Esta dissertação apresenta o desenvolvimento de uma plataforma inercial autônoma com três graus de liberdade para aplicação em estabilização de sensores - por exemplo, gravimétricos estacionários e embarcados - podendo ser utilizada também para estabilização de câmeras. O sistema é formado pela Unidade de Medida Inercial, IMU, desenvolvida utilizando um sensor micro eletromecânico, MEMS - que possui acelerômetro, giroscópio e magnetômetros nos três eixos de orientação - e um microcontrolador para aquisição, processamento e envio dos dados ao sistema de controle e aquisição de dados. Para controle dos ângulos de inclinação e orientação da plataforma, foi implementado um controlador PID digital utilizando microcontrolador. Este recebe os dados da IMU e fornece os sinais de controle utilizando as saídas PWM que acionam os motores, os quais controlam a posição da plataforma. Para monitoramento da plataforma foi desenvolvido um programa para aquisição de dados em tempo real em ambiente Matlab, por meio do qual se pode visualizar e gravar os sinais da IMU, os ângulos de inclinação e a velocidade angular. Testou-se um sistema de transmissão de dados por rádio frequência entre a IMU e o sistema de aquisição de dados e controle para avaliar a possibilidade da não utilização de slip rings ou fios entre o eixo de rotação e os quadros da plataforma. Entretanto, verificou-se a inviabilidade da transmissão em razão da baixa velocidade de transmissão e dos ruídos captados pelo receptor de rádio frequência durante osmovimentos da plataforma. Sendo assim, dois pares de fios trançados foram utilizados fios para conectar o sensor inercial ao sistema de aquisição e processamento.
Resumo:
O propósito deste estudo foi contribuir para a análise da epidemiologia da oclusão dentária na infância e discutir a implicação para os sistemas de saúde, examinando dados de prevalência de uma amostra probabilística (n=985) da população de 5 e 12 anos de idade na cidade de São Paulo, Brasil (1996); e estudos epidemiológicos transversais publicados nos últimos 70 anos. A prevalência na cidade, cresceu de 49,0 ± 4,5 por cento na dentição decídua para 71,3 ± 3,9 por cento na dentição permanente (p<0,001), sendo que a chance de ocorrência de oclusopatia moderada/severa foi quase duas vezes maior na segunda dentição (OR=1,87; IC95 por cento =1,43-2,45; p
Resumo:
Tecnologias HVDC que utilizam conversores do tipo fonte de tensão, o VSC-HVDC, ainda não são completamente difundidas e aplicadas no Brasil, em contraste com outros países que começaram a estudar e empregar este tipo de transmissão. Comparado com o HVDC tradicional, o VSC-HVDC é uma tecnologia de transmissão mais eficiente e pode superar deficiências encontradas na transmissão em corrente contínua convencional. O VSC-HVDC pode ser utilizado de maneira mais eficiente nas novas redes de energia, para alimentar ilhas, integração de geração eólica, renovação das linhas em centros urbanos, aplicações multiterminais e conexão com sistemas fracos. Por se tratar de uma tecnologia recente, o VSC-HVDC ainda não é amplamente adotado e uma das principais limitações da utilização destes sistemas é a sua fragilidade diante faltas na linha de corrente contínua. Neste contexto, limitadores de corrente de falta (LCF) podem ser utilizados para minimizar o impacto das faltas. A ação dos limitadores é benéfica ao sistema durante condições de falta, contudo, ainda assim é necessária a atuação do sistema de proteção para extinguir a condição faltosa. Portanto, este trabalho visa propor e avaliar um novo esquema de proteção que opere de maneira seletiva e confiável para sistemas VSC-HVDC na presença de LCF baseados em materiais supercondutores ou LCF indutivos. Para tanto, foram implementadas quatro funções de proteção tradicionais das linhas em CC, a saber: direcional de corrente, diferencial, sobrecorrente com restrição de tensão e ondas viajantes, e ainda, foi proposta uma nova função de proteção, a de condutância, a qual apresentou o menor tempo de identificação de falta, considerando as faltas mais severas. Adicionalmente, foi avaliado o comportamento destas funções quando o sistema apresenta os LCF em série com a linha. Foi demonstrado que é possível extrair os benefícios dos LCF sem deteriorar a qualidade dos resultados das funções de proteção, o que aumenta a segurança e confiabilidade dos sistemas VSC-HVDC, uma vez que os impactos das faltas são minimizados e as mesmas são identificadas em um curto intervalo de tempo.
Resumo:
No contexto da pesquisa e utilização prática das técnicas de autoexpressão, o Teste de Apercepção Temática (TAT) apresenta reconhecidas vantagens. Apesar de linhas de pesquisa bastante desenvolvidas internacionalmente, não existem estudos atuais sobre as propriedades deste instrumento no Brasil, levantando a necessidade de conhecer seus alcances e limites nesse contexto cultural. Desse modo, o desenvolvimento de normas que descrevam o desempenho típico de uma população não clínica se mostra um importante passo inicial rumo à retomada da pesquisa com o TAT e sua adoção por profissionais. Tendo em vista que a validação das técnicas de autoexpressão se refere aos sistemas de classificação e não aos instrumentos em si, o presente estudo adotou, dentre a miríade de sistemas de categorização das histórias do TAT descritos na literatura, o sistema proposto por Monique Morval, que foi desenvolvido para estudantes e profissionais com pouca experiência com o TAT, utilizando pressupostos da Personologia de Henry Murray, Psicologia Cognitiva e Psicologia do Ego, possibilitando leituras objetivas e qualitativas do material. Considerando o potencial de utilização desse sistema por parte dos psicólogos brasileiros - visto sua semelhança com o atual sistema aprovado para uso pelo Sistema de Avaliação dos Testes Psicológicos (SATEPSI) do Conselho Federal de Psicologia - foram feitos aprimoramentos no assim chamado sistema morvaliano, possibilitando sua adoção no estudo normativo proposto pelo presente projeto. Tais aprimoramentos consistiram na revisão e adição de categorias e subcategorias, a partir de trabalhos brasileiros e internacionais sobre o instrumento. Desta forma, o presente estudo teve por objetivo desenvolver normas para o TAT (Sistema Morvaliano) em adultos, a partir de uma amostra não clínica, aleatória e estratificada por critérios de idade, sexo, escolaridade e nível socioeconômico (NSE) da cidade de Ribeirão Preto (SP). Os participantes foram 100 adultos (25 a 44 anos de idade), selecionados através de visita a domicílios sorteados em bairros de diferentes NSE. Foram realizadas entrevistas de avaliação psicológica individuais, utilizando um roteiro de entrevista semiestruturada, o Teste de Inteligência Geral Não-Verbal (TIG-NV) e 20 cartões do TAT, pré-selecionados de acordo com as recomendações do manual original do instrumento. As histórias do TAT foram categorizadas no sistema morvaliano revisado e seus dados passaram por análises estatísticas e sínteses qualitativas em busca de diferenças de desempenho relacionadas ao sexo, escolaridade e NSE. Os resultados mostram poucas diferenças entre os grupos que justifiquem a elaboração de normas específicas; apesar disso, foi identificada uma tendência (ainda que pequena) de o nível de escolaridade e o NSE favorecerem um melhor desempenho nas variáveis relativas à organização formal das histórias. São discutidas as implicações dos dados obtidos em termos do perfil normativo de desempenho nas variáveis do sistema morvaliano, suas evidências preliminares de validade e futuras direções para estudos sobre o TAT nesse sistema.
Resumo:
As análises biplot que utilizam os modelos de efeitos principais aditivos com inter- ação multiplicativa (AMMI) requerem matrizes de dados completas, mas, frequentemente os ensaios multiambientais apresentam dados faltantes. Nesta tese são propostas novas metodologias de imputação simples e múltipla que podem ser usadas para analisar da- dos desbalanceados em experimentos com interação genótipo por ambiente (G×E). A primeira, é uma nova extensão do método de validação cruzada por autovetor (Bro et al, 2008). A segunda, corresponde a um novo algoritmo não-paramétrico obtido por meio de modificações no método de imputação simples desenvolvido por Yan (2013). Também é incluído um estudo que considera sistemas de imputação recentemente relatados na literatura e os compara com o procedimento clássico recomendado para imputação em ensaios (G×E), ou seja, a combinação do algoritmo de Esperança-Maximização com os modelos AMMI ou EM-AMMI. Por último, são fornecidas generalizações da imputação simples descrita por Arciniegas-Alarcón et al. (2010) que mistura regressão com aproximação de posto inferior de uma matriz. Todas as metodologias têm como base a decomposição por valores singulares (DVS), portanto, são livres de pressuposições distribucionais ou estruturais. Para determinar o desempenho dos novos esquemas de imputação foram realizadas simulações baseadas em conjuntos de dados reais de diferentes espécies, com valores re- tirados aleatoriamente em diferentes porcentagens e a qualidade das imputações avaliada com distintas estatísticas. Concluiu-se que a DVS constitui uma ferramenta útil e flexível na construção de técnicas eficientes que contornem o problema de perda de informação em matrizes experimentais.
Resumo:
O gerenciamento de resíduos sólidos municipais não vem contemplando adequadamente a multidimensionalidade da realidade urbana num mundo globalizado e pouco tem auxiliado na necessária transformação dos padrões de consumo nas comunidades locais. Face a incerteza inerente dos sistemas sociais, a complexidade vem sendo, progressivamente, reconhecida como a expressão paradigmática dessa realidade. Neste trabalho, desenvolve-se o conceito de sistema de resíduos sólidos sob a perspectiva de um sistema complexo, assim como caracteriza-se a dinâmica das suas interações. A partir dessa concepção teórica, discute-se a busca da sustentabilidade por meio do gerenciamento de resíduos e as formas de complexificar a sua metodologia de atuação, na qual a cobrança da coleta de resíduos domiciliares é identificada como um importante instrumento neste processo. Propõe-se um modelo de cobrança desses serviços cuja viabilidade é verificada na simulação feita para o município de Santo André-SP. Levanta-se, ainda, dados sobre as formas de cobrança existentes em diversos municípios e a situação dos serviços de limpeza urbana no Brasil. Conclui-se que o gerenciamento de resíduos sólidos deve ser executado no âmbito de uma política pública local para o setor e que o modelo de cobrança proposto tem maior aplicabilidade em cidades de médio a grande porte.
Resumo:
Este trabalho descreve a síntese, caracterização e aplicação de sistemas poliméricos baseados em polímeros condutores em sistemas de liberação controlada de drogas. Esta tese pode ser dividida em duas partes: na primeira se apresentam os resultados da aplicação de filmes de polianilina e polipirrol na liberação de drogasmodelo como a dopamina protonada e o ácido salicílico. Na liberação de salicilato utilizou-se um filme polianilina eletrosintetizado e dopado com íons cloreto. Já para a liberação de dopamina protonada (um cátion) a liberação foi conduzida a partir de um sistema bicamadas, com um filme de polianilina recoberta com uma camada de Náfion. É mostrada a liberação controlada nos dois casos, porém também se discutem limitaçãoes deste tipo de sistema que levaram ao estudo de uma forma alternativa de controle eletroquímico utilizando polímeros condutores. A segunda parte do trabalho mostra então esta nova metodologia que se baseia em compósitos de poianilina eletropolimerizada no interior de hidrogéis de poliacrilamida. É mostrado que este novo material é eletroativo e mantém as características de intumescimento dos hidrogéis, tanto necessárias ao desenvolvimento destes sistemas de liberação controlada. Mecanismos para o crescimento e distribuição da polianilina na matriz isolante e para a atuação do compósito no controle eletroquímico da liberação são propostos com base nos dados de microscopia de força atômica, Raman e eletrônica de varredura, além de testes de liberação controlada com moléculas de diferentes cargas.
Resumo:
Foi desenvolvida uma proposta de sistemática para implementação de Sistema de Gestão da Segurança de Alimentos com base na Norma ISO 22000:2005 (NBR ISO 22000:2006). Esta sistemática está composta por: A) Mapeamento da documentação; B) Formulários para o Planejamento do sistema APPCC/ HACCP com base na norma ISO 22000, bem como Instrução para seu uso, incluindo tanto as etapas preliminares como os 7 Princípios estabelecidos pelo Codex Alimentarius; C) Documentos para a verificação dos sistemas: Checklist para auditoria de verificação, tanto de adequação como de implementação, e Mapeamento da comunicação. Esta sistemática foi aplicada em uma linha de produtos em pó de empresa real, de porte médio, denominada, ficticiamente, empresa EXEMPLO. Foram dados os treinamentos necessários, adequados ao nível de conhecimento da equipe de segurança de alimentos, e realizadas reuniões de consultoria. Após implementação da sistemática proposta pela equipe da empresa EXEMPLO na linha de produtos escolhida para este fim, foi realizada uma auditoria de verificação para a avaliação da adequação do Sistema de Gestão da Segurança de Alimentos com base na Norma ISO 22000. A equipe foi composta por três auditores, sendo dois deles com formação nível auditor líder de ISO 22000. Concluiu-se que a sistemática é eficaz e adequada, atendendo plenamente às exigências da Norma ISO 22000. Foi, também, incluído no trabalho exemplo prático da documentação básica resultante da implementação na empresa EXEMPLO. A sistemática e modelos desenvolvidos, bem como a visualização de um exemplo prático, podem auxiliar as empresas a diminuir significativamente o tempo de implementação, embora ajustes devam ser feitos para adequação à sua realidade. Os ajustes necessários devem considerar os requisitos regulamentares, dependendo do tipo de produto e do órgão regulatório responsável pela sua regulamentação e fiscalização, bem como requisitos estatutários que possam impactar na sistemática desenvolvida.
Resumo:
Os sistemas elétricos de potência modernos apresentam inúmeros desafios em sua operação. Nos sistemas de distribuição de energia elétrica, devido à grande ramificação, presença de extensos ramais monofásicos, à dinâmica das cargas e demais particularidades inerentes, a localização de faltas representa um dos maiores desafios. Das barreiras encontradas, a influência da impedância de falta é uma das maiores, afetando significativamente a aplicação dos métodos tradicionais na localização, visto que a magnitude das correntes de falta é similar à da corrente de carga. Neste sentido, esta tese objetivou desenvolver um sistema inteligente para localização de faltas de alta impedância, o qual foi embasado na aplicação da técnica de decomposição por componentes ortogonais no pré-processamento das variáveis e inferência fuzzy para interpretar as não-linearidades do Sistemas de Distribuição com presença de Geração Distribuída. Os dados para treinamento do sistema inteligente foram obtidos a partir de simulações computacionais de um alimentador real, considerando uma modelagem não-linear da falta de alta impedância. O sistema fuzzy resultante foi capaz de estimar as distâncias de falta com um erro absoluto médio inferior a 500 m e um erro absoluto máximo da ordem de 1,5 km, em um alimentador com cerca de 18 km de extensão. Tais resultados equivalem a um grau de exatidão, para a maior parte das ocorrências, dentro do intervalo de ±10%.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
Aplicativos móveis de celulares que coletam dados pessoais estão cada vez mais presentes na rotina do cidadão comum. Associado a estas aplicações, há polêmicas sobre riscos de segurança e de invasão de privacidade, que podem se tornar entraves para aceitação destes sistemas por parte dos usuários. Por outro lado, discute-se o Paradoxo da Privacidade, em que os consumidores revelam mais informações pessoais voluntariamente, apesar de declarar que reconhecem os riscos. Há pouco consenso, nas pesquisas acadêmicas, sobre os motivos deste paradoxo ou mesmo se este fenômeno realmente existe. O objetivo desta pesquisa é analisar como a coleta de informações sensíveis influencia a escolha de aplicativos móveis. A metodologia é o estudo de aplicativos disponíveis em lojas virtuais para celulares através de técnicas qualitativas e quantitativas. Os resultados indicam que os produtos mais populares da loja são aqueles que coletam mais dados pessoais. Porém, em uma análise minuciosa, observa-se que aqueles mais buscados também pertencem a empresas de boa reputação e possuem mais funcionalidades, que exigem maior acesso aos dados privativos do celular. Na survey realizada em seguida, nota-se que os consumidores reduzem o uso dos aplicativos quando consideram que o produto coleta dados excessivamente, mas a estratégia para proteger essas informações pode variar. No grupo dos usuários que usam aplicativos que coletam dados excessivamente, conclui-se que o motivo primordial para compartilhar informações pessoais são as funcionalidades. Além disso, esta pesquisa confirma que comparar os dados solicitados pelos aplicativos com a expectativa inicial do consumidor é um constructo complementar para avaliar preocupações com privacidade, ao invés de simplesmente analisar a quantidade de informações coletadas. O processo desta pesquisa também ilustrou que, dependendo do método utilizado para análise, é possível chegar a resultados opostos sobre a ocorrência ou não do paradoxo. Isso pode dar indícios sobre os motivos da falta de consenso sobre o assunto
Resumo:
Os sistemas de proteção dos elementos da rede elétrica desempenham um papel de fundamental importância na segurança e confiabilidade dos sistemas de potência. A não atuação ou a atuação incorreta dos relés de proteção durante uma falta localizada em um componente da rede pode transformar-se em um evento sistêmico de grandes proporções (blecaute). Esses eventos trazem riscos e elevados prejuízos econômicos à sociedade. A proteção dos geradores síncronos, apesar do alto custo e complexidade deste tipo de equipamento, não recebe a mesma atenção na literatura que a dedicada à proteção de outros elementos da rede, como, por exemplo, a das linhas de transmissão. Isso decorre do menor número de geradores existentes na rede e também da ideia que as faltas neste tipo de equipamento são menos frequentes. Este trabalho aborda os principais aspectos envolvidos com o projeto de um sistema de proteção para geradores síncronos de grande porte. Incialmente, discutese os principais conceitos associados com os geradores, de interesse para a tarefa de proteção. Particular atenção é dedicada às formas de aterramento e aos critérios adotados para projeto do resistor de aterramento utilizado nesse equipamento. Em seguida, apresentam-se as principais funções de proteção aplicáveis aos geradores, particularmente aquelas voltadas para a detecção de faltas nos enrolamentos do estator. Discute-se também os critérios de ajustes dos parâmetros dessas funções. Descreve-se o uso de uma plataforma laboratorial, baseada em simulador de tempo real (RTDS), para ensaio e análise do sistema de proteção visando validar seu correto desempenho frente às possíveis condições operativas que podem ser encontradas em campo. Finalmente, utilizando os conceitos desenvolvidos ao longo do trabalho, desenvolve-se um estudo de caso, onde é realizado o projeto e implementação do sistema de proteção dos geradores de uma usina hidrelétrica hipotética. Para avaliar e analisar o desempenho do sistema de proteção dessa rede exemplo, parametrizou-se o IED G60 (GE) e realizou-se inúmeras simulações na plataforma de testes proposta.
Resumo:
A busca de sistemas de comunicação eficientes e econômicos é cada vez maior, principalmente com o aumento da demanda por tráfego e banda de transmissão. Conhecidas pela utilização eficiente de largura de banda, as redes ópticas de segmentação espectral flexível têm sido intensamente estudadas e são consideradas boas candidatas para a próxima geração de redes. Tais redes flexíveis utilizam formatos de modulação multinível e multiplexação multiportadora. Sistemas com alta capacidade de transmissão devem ser extremamente confiáveis, pois a falha em um dispositivo ou enlace da rede acarreta enorme perda de dados. Por isso, as técnicas de proteção e restauração do tráfego devem ser eficientes, de modo a garantir a sobrevivência da rede. Neste trabalho, foi desenvolvido um algoritmo capaz de lidar com cada requisição de conexão, encontrar um caminho óptico para transmissão e reservar outro caminho para recuperação do tráfego em caso de falha na rede. A seleção dos caminhos primário e de proteção utiliza a técnica smart-fit, que escolhe a solução com menor custo final, definido pela distância da rota percorrida somada ao custo do índice inicial da faixa espectral alocada, buscando equilibrar a escolha entre a posição no espectro e rota escolhida. Além disso, são definidos custos diferentes para slots de frequência livres e compartilhados, a fim de incentivar o compartilhamento espectral em caminhos de proteção. Dentre as técnicas de alocação espectral, a varredura com janela espectral varre o espectro em todos os enlaces da rota, slot por slot, em busca de uma faixa livre com tamanho suficiente para atender uma demanda. Neste trabalho, foi desenvolvida uma técnica chamada busca lógica, que lida simultaneamente com todos os enlaces da rota ao realizar operações lógicas com seus espectros. Em seguida, é realizada uma convolução entre a janela espectral, com tamanho da demanda, e o espectro resultante. A partir desse resultado, é possível saber as posições no espectro onde a demanda poderá ser alocada. Tal técnica, como será demonstrado, é mais veloz que a varredura com janela espectral. Para garantir a eficácia e confiabilidade do algoritmo, utilizando o software MATLAB, avaliou-se a probabilidade de bloqueio e probabilidade de bloqueio de banda, a fragmentação espectral média na rede, o grau de compartilhamento, a taxa de utilização espectral e a taxa de capacidade reservada. O algoritmo desenvolvido foi capaz de organizar o tráfego na rede de modo ordenado e pouco fragmentado, além de utilizar de maneira eficiente os recursos destinados à proteção.
Resumo:
Este trabalho traduz um estudo de casos, que procura pesquisar e sistematizar o conhecimento sobre a gestão do estado dos equipamentos para atender às suas funções produtivas, isto é, uma gestão orientada para resultados. A função manutenção tem sido considerada como aquela que agrega conhecimentos e atividades para assegurar a disponibilidade operacional dos sistemas produtivos, dentro de padrões de desempenho antecipadamente especificados, ao menor custo possível e atendendo a requisitos pertinentes de segurança. Nesse contexto, pretende-se caracterizar de que modo abordagens ou políticas, adotadas por empresas selecionadas, que requerem o exercício da função manutenção, se vinculam a indicadores de disponibilidade. Ao longo do trabalho, a disponibilidade é tratada como um \"indicador de resultado\" das atividades de manutenção. Transparece da literatura que a análise da tendência desse indicador deve orientar as tomadas de decisão referentes às ações sobre o equipamento. Desse modo, compete verificar se, e como, é feito o vínculo entre esse indicador e decisões relativas à manutenção, sem perder de vista a produtividade da empresa. Assim, descreve-se o contexto em que se inserem a manutenção e a disponibilidade e são identificados elementos que, interferindo na disponibilidade, permitem desdobrá-la e associá-la a uma estrutura analítica que auxilie o levantamento e encaminhamento de análises sobre os dados obtidos no campo, para melhor percepção do tratamento dado à disponibilidade. Para possibilitar o encaminhamento do estudo de casos e a definição das proposições de pesquisa, a função manutenção é associada a um processo, em que se usa o indicador de disponibilidade como feedback, para a otimização do próprio processo de operação da função manutenção, bem como da especificação dos recursos de entrada desse processo. Três proposições são estruturadas e verificadas em quatro empresas que tipificam dois grupos distintos de operações, focalizando o tratamento dado à disponibilidade, e, no seu âmbito, o tratamento de compromissos de gestão e do estudo do ciclo de vida do equipamento. Para possibilitar uma avaliação objetiva das variáveis das proposições da pesquisa, que são de natureza essencialmente qualitativa, encontrou-se, no Capability Maturity Model (CMM), um modelo conceitual que, por suas características evolutivas, forneceu inspiração para estruturar o necessário instrumento de avaliação. A conclusão da pesquisa revela que as proposições de estudo não se confirmaram de forma plena, apontando sensível diferença de seu atendimento quando se faz a comparação entre os dois grupos de empresas, deixando, assim, um espaço em aberto para novas pesquisas.
Resumo:
No setor de energia elétrica, a área que se dedica ao estudo da inserção de novos parques geradores de energia no sistema é denominada planejamento da expansão da geração. Nesta área, as decisões de localização e instalação de novas usinas devem ser amplamente analisadas, a fim de se obter os diversos cenários proporcionados pelas alternativas geradas. Por uma série de fatores, o sistema de geração elétrico brasileiro, com predominância hidroelétrica, tende a ser gradualmente alterada pela inserção de usinas termoelétricas (UTEs). O problema de localização de UTEs envolve um grande número de variáveis através do qual deve ser possível analisar a importância e contribuição de cada uma. O objetivo geral deste trabalho é o desenvolvimento de um modelo de localização de usinas termoelétricas, aqui denominado SIGTE (Sistema de Informação Geográfica para Geração Termoelétrica), o qual integra as funcionalidades das ferramentas SIGs (Sistemas de Informação Geográfica) e dos métodos de decisão multicritério. A partir de uma visão global da área estudada, as componentes espaciais do problema (localização dos municípios, tipos de transporte, linhas de transmissão de diferentes tensões, áreas de preservação ambiental, etc.) podem ter uma representação mais próxima da realidade e critérios ambientais podem ser incluídos na análise. Além disso, o SIGTE permite a inserção de novas variáveis de decisão sem prejuízo da abordagem. O modelo desenvolvido foi aplicado para a realidade do Estado de São Paulo, mas deixando claro a viabilidade de uso do modelo para outro sistema ou região, com a devida atualização dos bancos de dados correspondentes. Este modelo é designado para auxiliar empreendedores que venham a ter interesse em construir uma usina ou órgãos governamentais que possuem a função de avaliar e deferir ou não a licença de instalação e operação de usinas.