7 resultados para Optimization. Semiarid. Management. Performance Indicators

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Gestão Pública tem incorporado boas práticas de administração mediante foco no resultado eficiente e na transparência. A utilização de indicadores de desempenho exerce um papel fundamental para espelhar a real situação do órgão e suas possibilidades de melhoria. No caso específico das universidades federais, o Tribunal de Contas da União (TCU) estabeleceu um conjunto de nove indicadores a serem medidos por essas unidades e divulgados através de seus relatórios de gestão. A dificuldade interpretativa advinda de visualizar, simultaneamente, esses critérios avaliativos contidos nesse conjunto e suas interdependências, fomentou a elaboração desta pesquisa. O estudo objetiva analisar e sintetizar o conjunto de indicadores de desempenho, atinentes a 53 universidades federais, referentes aos anos de 2008 a 2010, a fim de identificar um modelo de simplificação para auxiliar os controles interno e externo. A metodologia utilizada é a da Análise Fatorial, uma técnica estatística multivariada de interdependência, e pouco explorada em pesquisas anteriores nessa temática, além de testes de regressão linear e da Análise Envoltória de Dados (DEA), esta já amplamente utilizada na literatura, a fim de possibilitar ratificar as associações e interpretações dos resultados. Os testes mostraram uma aderência satisfatória da técnica aos dados coletados, permitindo identificar dois fatores que pudessem explicar 61,8% do conjunto informacional original. Com ratificação da DEA, esses fatores foram associados ao desempenho e ao custo, e a relação entre os dois foi interpretada como um índice de eficiência. O fator atrelado ao desempenho foi intitulado o indicador sumarizado de todo o conjunto estabelecido pelo TCU, tendo sido encontrado correlação alta e significativa com o Ranking Universitário Folha, mostrando que eles possuem semelhantes poderes discriminantes, mesmo tendo sido oriundos de bases de cálculo distintas. Ademais, destacam-se os seguintes resultados complementares: 1) Embora o custo influencie para o desempenho das universidades federais, ele não é preponderante, mas os indicadores de envolvimento com a pós-graduação e qualificação do corpo docente são os mais relevantes; 2) Os indicadores de resultado não sofrem muita influência do custo, sobretudo o de recursos humanos (funcionários), mostrando que de uma maneira geral há ineficiência na gestão de pessoal das universidades; 3) A utilização da DEA mostrou que a escolha das variáveis realmente pode redundar em resultados distintos e não correlatos significativamente, apresentando uma limitação quanto à certificação dos escores de eficiência obtidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente pesquisa objetiva verificar a contribuição da tecnologia da informação na previsão de indicadores de desempenho da Empresa Alfa. Para a realização deste estudo, foi realizado um estudo de caso único a fim de aprofundar na pesquisa de forma exploratória e descritiva. As técnicas utilizadas para tal foram análise documental e entrevista, que deram suporte à pesquisa quantitativa atendendo ao objetivo proposto no estudo e na fundamentação teórica. A pesquisa teve como base principal os resultados dos indicadores de desempenho dos anos de 2012 e 2013 descritos no planejamento estratégico referente ao ano de 2013. Através desses resultados foi possível prever os resultados dos indicadores para 2014 utilizando o software Weka e assim realizar as análises necessárias. Os principais achados demonstram que a Empresa Alfa precisará antecipar ações para maximizar seus resultados evitando que impactem negativamente na rentabilidade, além de ter a necessidade de manter uma base de dados sólida e estruturada que possa subsidiar previsões confiáveis e alimentar futuramente o programa a fim de realizar novas previsões. O resultado da pesquisa aponta que o sistema de informações Weka contribui para a previsão de resultados, podendo antecipar ações para que a organização possa otimizar suas tomadas de decisões, tornando-as mais eficientes e eficazes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Não tem sido frequentes no Brasil estudos de avaliação da qualidade dos serviços de saúde. Tem sido adotado entendimento de qualidade como o grau em que processo de assistência aumenta a probabilidade de resultados favoráveis e diminui a probabilidade de resultados desfavoráveis, dado o estado do conhecimento médico. Indicadores de resultados de efeitos adversos do processo de assistência costumam ser empregados e, entre eles, para aquelas condições e procedimentos onde óbitos ocorrem com frequência, estão as taxas de mortalidade hospitalar. Entre esses procedimentos inclui-se a cirurgia de revascularizaçäo do miocárdio. Apesar de frequentes na literatura, particularmente norte-americana, não há estudos de escala realizados no Brasil. Para estudos deste tipo bases de dados administrativas tem sido empregadas. No Brasil recentemente tem sido exploradas as potencialidades dos bancos de dados do Sistema de Informações Hospitalares do Sistema Único de Saúde do Ministério da Saúde (SIH-SUS) em diversos estudos. Como há registro de óbitos hospitalares no sistema é possível utilizá-lo para a obtenção de dados sobre mortalidade hospitalar. Os bancos de dados do SIH-SUS de 1996 a 1998 foram integrados e as variáveis disponíveis no banco obtido examinadas quanto a possibilidade de inclusão do estudo descritivo de características da cirurgia coronária no país. Foram identificadas aquelas variáveis que poderiam ser utilizadas para proceder algum grau de ajuste de risco para os casos atendidos pelos diferentes hospitais. Para que se obtivesse uma comparação do comportamento do ajuste obtido com essas variáveis com modelos mais completos que incorporassern mais variáveis, inclusive variáveis clínicas, foram estudadas para o mesmo período, as internações realizadas no Hospital Universitário Pedro Ernesto da Universidade do Estado do Rio de Janeiro, utilizando dados de banco específico do Serviço de Cirurgia Cardíaca. Além do estudo descritivo foram desenvolvidos para os casos deste hospital modelos de regressão logística incorporando variáveis pré-operatórias e com as variáveis disponíveis no SIH-SUS para avaliar as diferentes capacidades de ajuste de risco. Após a escolha de um modelo de risco com maior capacidade de ajuste, foram calculadas as taxas de mortalidade hospitalar e obtidos os valores de taxas esperadas após o ajuste de risco. Os hospitais forma ordenados de acordo com as razões entre as taxas observadas e esperadas e identificados aqueles hospitais que apresentavam razões estatisticamente significativas superiores e inferiores a média nacional. Estudou-se também o efeito do volume de casos sobre a mortalidade hospitalar. Foram obtidas informações de 41.989 cirurgias codificadas como cirurgia coronária com circulação extracorpórea realizadas em 131 hospitais brasileiros, em 22 unidades da federaçâo. A taxa anual por 100000 habitantes foi de 8,7 para o Brasil, com São Paulo apresentando taxa de 16,6. Para efeitos de comparação a taxa em anos em torno de 1997 foi de 144,5 nos EUA, 54,4 no Canadá, 90,0 na Austrália e 31,5 em Portugal. A taxa de mortalidade no período foi de 7,2 % (EUA, 2,8%; Canadá, 2,5%: França, 3,2%). A maioria de pacientes operados foi do sexo masculino (67,5%) e a idade média foi de 59,9 anos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa avaliou a situação da tuberculose no Brasil, no período de 2001 a 2003, segundo indicadores do processo de operacionalização do Programa Nacional de Controle de Tuberculose (PNCT), e estimou os efeitos de fatores determinantes da taxa de incidência da doença. Para a avaliação utilizou-se a análise de cluster não-hierárquica, visando agrupar os municípios brasileiros de acordo com a morbidade por tuberculose (TB) e AIDS, e pelo desempenho do PNCT. Estes clusters foram mapeados, comparando-se a distribuição nos municípios, em regiões metropolitanas, municípios prioritários, e segundo o tamanho da população. O qui-quadrado de Pearson foi utilizado para testar associação nas categorias. A modelagem longitudinal multinível foi usada para identificar e estimar os efeitos dos determinantes da doença. Os agregados foram: anos, municípios e regiões metropolitanas. O modelo foi de intercepto e inclinação aleatória. Foram retidas as variáveis capazes de diminuir a variância dos níveis, pois, desta forma, explicam a variabilidade hierárquica da doença. Incluiu-se renda, densidade populacional, proporção de cura, taxa de incidência de AIDS e as grandes regiões brasileiras. A avaliação mostrou que a situação epidemiológica preocupante ocorreu nos municípios com Baixa TB e Alta AIDS, e Alta TB e AIDS. O cluster de Muito baixa TB e AIDS concentrou 50% dos municípios, o que pode configurar problemas de notificação. São 6 clusters de desempenho do programa. Bom e Bom com baixo DOTS predominando nos municípios pequenos, não prioritários e fora das regiões metropolitanas. No desempenho Moderado houve maior proporção de municípios prioritários. Clusters Regular e Fraco concentraram 10% dos municípios, com abandono de tratamento elevado e cura muito baixa. O cluster Muito Fraco caracterizou-se pela falta de dados nos indicadores de desempenho. O modelo multinível identificou a AIDS como fator impactante na tuberculose, anteriormente não encontrado em outros estudos; a interação entre renda e AIDS, e importante contribuição das regiões metropolitanas na distribuição da tuberculose, que se manifesta heterogeneamente nas grandes regiões do país. A análise discriminou municípios, e mostrou não haver associação entre maior morbidade e melhor desempenho do PNCT, retratando inadequação da vigilância à realidade epidemiológica do Brasil. O programa necessita ser reforçado, no sentido de considerar a AIDS ao estabelecer suas estratégias de controle. Ademais, os aspectos de baixa renda da população e densidade populacional, já analisados em diversas pesquisas, também se manifestaram de forma importante nestes resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.