43 resultados para Elites técnicas estatales
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A complexidade das ações no plano decisório da Gestão das Águas e a necessidade do atendimento simultâneo das exigências que visam à obtenção do desenvolvimento sustentável, impõem uma abordagem multiobjetivo. O uso múltiplo das águas, o caráter multidisciplinar e subjetivo dos agentes envolvidos no processo, a aleatoriedade dos eventos hidrológicos, a incerteza dos processos econômicos, sociais e ambientais, a necessária consideração de aspectos de difícil mensuração, como o bem estar social, a preservação do ambiente e as questões culturais e estéticas, além da tradicional eficiência econômica, caracterizam o contexto presente. Este trabalho apresenta, descreve e compara algumas técnicas de análise multiobjetivo como importante meio de apoio à tomada de decisões diante dos problemas de Gestão das Águas. Três métodos são aplicados e comparados em um estudo de caso, para suporte à decisão em um Comitê de Gerenciamento, tendo como objetivo estratégico o desenvolvimento sustentável em uma Bacia Hidrográfica, com um cenário configurado a partir da experiência acumulada na última década no Rio Grande do Sul e à luz da legislação vigente para a Política de Recursos Hídricos. Na análise desenvolvida através dos métodos ELECTRE I e II, Programação de Compromisso e Analítico Hierárquico, consideram-se a participação de múltiplos decisores, a questão da subjetividade e o reconhecimento da incerteza como inerente ao processo.
Resumo:
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
Resumo:
Amostras de solo (latossolo vermelho destroférrico) coletadas em três pontos distintos, no município de Caibaté (Região das Missões, RS), na profundidade de aproximadamente 10 cm (da superfície do solo), em diferentes estações do ano e com diferentes tipos de manejo de solo (plantio convencional; plantio direto e cultivo mínimo), foram analisadas com o intuito de verificar a presença e a persistência de pesticidas no solo. Adicionalmente foi avaliada a relação entre a concentração dos produtos e tipo de manejo de solo aplicado. Este estudo é justificado por ser esta região de caráter tipicamente agrícola, com uso sistemático de pesticidas, tais como: monocrotofós, tiabendazole, triadimenol, lufenuron e imazetapir. Primeiramente foram estudadas as melhores condições de extração, considerando as técnicas mais comumente utilizadas, como o soxhlet, o banho e a sonda de ultra-som. As análises foram realizadas por Cromatografia Líquida de Alta Eficiência com Detector UV-visível (lufenuron e imazetapir) e Cromatografia Gasosa com Detector Seletivo de Massas (monocrotofós, tiabendazole e triadimenol), dependendo das características do analito em estudo. Os resultados mostram a presença de todos os pesticidas estudados, permitindo inferir que os mesmos persistem no solo. Além disto, os resultados indicam que não há uma uniformidade da extração dos analitos nas amostras dos solos, que foram extraídas com as técnicas de soxhlet, banho e sonda de ultra-som. Tais diferenças podem ser devido à heterogeneidade das amostras ou uma extração seletiva dos analitos. Quanto as influências do tipo de manejo das lavouras, não foi possível constatar a contribuição destas formas de plantio para a persistência de resíduos de pesticidas no solo.
Resumo:
Resumo não disponível
Resumo:
Este trabalho propõe um critério estruturado de elaboração, implementação e operacionalização de um Sistema de Gestão Estratégica definido como Planejamento Balanceado, o qual é resultado do uso de conceitos do Planejamento Estratégico, adaptados a partir das obras de autores como Pagnoncelli e Vasconcellos (1992), Lobato (1997), entre outros e, aliando na seqüência deste, o uso do Balanced Scorecard de Kaplan e Norton (1997) para estabelecer as “Relações de Causa-e-efeito” entre as Estratégias e definir um processo sistemático para implementar e obter feedback sobre as mesmas, contribuindo assim para que a organização fique alinhada e focalizada na implementação e operacionalização das estratégias elaboradas.
Resumo:
Atualmente, o enorme volume de informações armazenadas em bancos de dados de organizações ultrapassa a capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo quanto a algum conhecimento implícito e importante na grande massa de dados. A partir disto, a mineração de dados tem-se transformado em um tópico importante de pesquisa, porque provê um conjunto de técnicas e ferramentas capazes de inteligente e automaticamente assistir o ser humano na análise de uma enorme quantidade de dados à procura de conhecimento relevante e que está encoberto pelos demais dados. O presente trabalho se propõe a estudar e a utilizar a mineração de dados considerando os aspectos temporais. Através de um experimento realizado sobre os dados da Secretaria da Saúde do Estado do Rio Grande do Sul, com a aplicação de uma metodologia para a mineração de dados temporais, foi possível identificar padrões seqüenciais nos dados. Este experimento procurou descobrir padrões seqüenciais de comportamento em internações médicas, objetivando obter modelos de conhecimento dos dados temporais e representá-los na forma de regras temporais. A descoberta destes padrões seqüenciais permitiu comprovar tradicionais comportamentos dos tratamentos médicos efetuados, detectar situações anômalas, bem como, acompanhar a evolução das doenças existentes.
Resumo:
Quando uma empresa de serviço decide aperfeiçoar suas operações, freqüentemente depara-se com um grande desafio no desenho de sistemas de gerenciamento e na implementação de técnicas que lhe permitam avaliar a sua performance. A aplicação de enfoques de gerenciamento inspirados em empresas de manufatura tem se revelado um consistente meio para a aquisição de melhores níveis de qualidade, produtividade e competitividade nestas empresas. Todavia, a questão central para o sucesso destas abordagens reside na busca de instrumentos que permitam a superação da informalidade e da falta de padronização que, com freqüência, caracterizam as empresas de serviço. Este estudo objetiva lidar com esta questão demonstrando a problemática e os desafios encontrados no desenvolvimento e implantação de um software destinado ao gerenciamento de produção em uma empresa prestadora de serviços. Especificamente, busca-se demonstrar a viabilidade e a relevância da utilização de paradigmas e técnicas de gestão da manufatura na administração de empresas de serviço que tenham uma significativa porção de “back-office” nas suas operações.
Resumo:
A pesquisa em satisfação do consumidor se constituiu, nas últimas duas décadas, em uma das mais prolíficas correntes de pesquisa em comportamento do consumidor. Entre os diversos motivos que levaram a este crescimento, destaca-se a grande importância deste tipo de pesquisa para as decisões referentes a rentabilidade das empresas. Academicamente, esta linha de pesquisa gerou novas áreas de estudo, entre os quais o da insatisfação, onde esta dissertação se enquadra. Esta pesquisa consistiu na realização de um estudo exploratório da Insatisfação dos Consumidores com o Serviço de Assistências Técnicas de Autorizadas de Automóveis, investigando as causas, o nível e as conseqüências da insatisfação destes consumidores. Este trabalho foi realizado na cidade de Porto Alegre, em 1999. Foram feitos cruzamentos entre estes dados, e com o perfil sócio-demográfico dos consumidores. Entre as conclusões, encontram-se os atributos mais importantes para a insatisfação dos consumidores, a viabilidade do método utilizado para pesquisa de insatisfação e sugestões para os executivos do ramo evitarem a insatisfação de seus clientes.
Resumo:
Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
Resumo não disponível.
Resumo:
O objetivo deste trabalho é investigar o processo composicional, a partir do pensamento do compositor. A investigação do processo composicional acontece em dois momentos. O primeiro momento é a realização documentada de um trabalho composicional, onde o pensamento do compositor fica registrado nas partituras, esboços e anotações que são feitas. O segundo momento é a realização de reflexões críticas a respeito dos conceitos técnicos e estéticos que são extraídos do trabalho composicional. As reflexões são feitas inicialmente considerando cada peça isoladamente e posteriormente considerando o conjunto de peças como um todo, estabelecendo ligações as composições. Em ambos os momentos busca-se evidenciar o fluxo de idéias do compositor no momento da criação, bem como seu modo de organizar estas idéias e produzir música.