987 resultados para Teoria da complexidade
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
A escolha do sistema de terminação de suínos e controle de dejetos, que melhor contemple os valores sociais atuais, implica considerar, simultaneamente, pelo menos dois aspectos disciplinarmente distintos - o econômico e o ambiental - o que eleva a complexidade da escolha. Conjuntos fuzzy, por traduzir ordenadamente a percepção expressa pela linguagem, o entendimento relevante porém impreciso da realidade, é uma ferramenta conveniente para o estudo desta situação, a respeito da qual diversos especialistas possuem apreciável conhecimento parcial. Analisa-se o custo de produção de terminadores de suínos da encosta do Vale do Caí, utilizando-se conjuntos fuzzy para identificar causas necessárias e/ou suficientes para o alcance de um baixo custo de produção. Posteriormente, é apresentado um modelo fuzzy para a combinação dos custos de produção com as percepções de suinocultores e de agrônomos quanto ao impacto ambiental da suinocultura.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
This study aimed to focus on aspects of public administration concerning the implementation of the public policy of complementary blood collection by the itinerant and scheduled PPCCIPS services either trough off local unity or mobile unit blood collection operations, which are managed by the State Institute of Hematology Arthur de Siqueira Cavalcanti - HEMORIO. The case study method was used in that public health institutional field, in search for a better understanding of responsibilities and management related to collection, serology, fractionation, storage and distribution of blood supply to almost all public hospitals and clinics, summed up to agreements with the single health system of the State of Rio de Janeiro. Bibliographic references, documentary and field data obtained through interviews and systematic observation in the public servants of HEMORIO workplaces, were treated by the analysis of the content method and the results of this research revealed the complexity of those services, and needs in outstanding aspects of infrastructure, equipment, logistics and personnel, which are critical for the achievement of the increased public collection of blood in the Rio de Janeiro State, endorsing the suggestions for the implementation of PPCCIPS in HEMORIO. The main point found in this research results concern the immanent ethical commitment of that public service personnel, including staff members and low ranking members as well, perceived due to a brief philosophical overlook on that personnel¿s attitudes. An important strategic aspect was revealed by the need for excellence of midia communications and education programs to implement the community involvement in the whole process. Final reflections point out that personnel posture is considered vital for the quality of the expected care of the technical activities and also for the quality of its final products release to the local public, fluminense, which is the irreplaceable human blood, and their derivatives. Despite the author¿s effort in this dissertation there is much more to be studied on that crucial theme.
Resumo:
Há vários argumentos a favor da uniformidade das alíquotas. Um dos principais é associado com a complexidade administrativa que se caracteriza a imposição de inúmeras alíquotas com a complexidadeadministrativa que se caracteriza a imposição de inúmeras alíquotas. Um outro argumento a favor da implantação de uma alíquota uniforme está relacionado com considerações de eficiência. Neste caso, argumenta-se que a tributação seletiva de um imposto valor adicionado geraria uma discriminação dos diferentes tipos de bens e serviços ocasionando distorção no comportamento dos consumidores. No que tange ao princípio de equidade da teoria de finanças públicas, o argumento para uniformidade das alíquotas é de que todos os agentes pagariam o mesmo encargo do imposto, não havendo discriminação com os indivíduos que tenha uma preferência especial por bens que são fortemente tributados. Neste caso, o princípio de equidade está relacionado com o fato de que agentes com a mesma capacidade de pagamento pagam impostos de igual valor equidade horizontal
Resumo:
Esta pesquisa assenta-se num campo emergente dos estudos organizacionais e de estratégia: Cognição Gerencial & Organizacional (Managerial e Organizational Cognition, daqui em diante, MOC). Avanços teóricos e metodológicos no campo da Ciência Cognitiva têm viabilizado o acesso, mapeamento e análise de como indivíduos produzem sentido e agem de modo inteligente. A aplicação desse ferramental tem permitido a mensuração do que se convencionou chamar “complexidade cognitiva situacional”, ou seja, o grau de diferenciação e integração com que uma pessoa percebe determinada situação, problema, objeto ou fenômeno. Tem havido, no entanto, controvérsias sobre a relação entre essa variável e, em ultima análise, o desempenho do indivíduo na realização de uma atividade e no alcance de resultados. Enquanto alguns estudos têm encontrado apenas relações residuais, grande parte das pesquisas têm encontrado relações positivas, na forma de “U invertido” ou, até mesmo, negativas entre complexidade cognitiva e desempenho. Nosso objetivo principal aqui é identificar como se deu essa relação na indústria siderúrgica no Brasil no período de 2001 a 2003. Para atingir esse objetivo estruturamos esta pesquisa como segue: no primeiro capítulo identificamos as principais bases teóricas e conceituais do campo. Advinda predominantemente da Filosofia, Sociologia e Ciência Cognitiva, essa base fornece os alicerces sobre os quais a Teoria de MOC, de um modo geral e esta pesquisa, em particular, se fundamentam. No capítulo seguinte apresentamos o campo de MOC em si, com especial ênfase sobre suas origens, processos cognitivos estudados, métodos de pesquisa e as principais relações causais exploradas. Em seguida apresentamos um estudo empírico realizado com dois experts e com os CFOs de três das principais companhias siderúrgicas no Brasil. Buscamos, primordialmente, identificar dois tipos de fenômenos nos dados obtidos: diferenças de complexidade cognitiva entre os experts e os executivos, e o tipo de relação existente entre a complexidade cognitiva dos executivos e o desempenho organizacional. Nesse capítulo apresentamos o problema de pesquisa, os objetivos da investigação, as hipóteses, a metodologia utilizada, os resultados e as análises. Finalmente, concluímos com alguns apontamentos em relação ao campo de MOC e à pesquisa empírica, avaliando algumas forças e fraquezas deste trabalho e sugerindo direções futuras de pesquisa nesse campo.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
As mudanças ocorridas no macroambiente do agronegócio do leite no Brasil trazem a necessidade de re-fazer as concepções acerca de sua gestão. As práticas gerenciais precisam romper o conservadorismo e buscar uma adequação ao momento vivido sem os vícios de sua cultura. Na concepção de um sistema de gestão da pecuária leiteira, adaptado à realidade das unidades de produção familiares, inseriram-se conceitos da teoria das restrições por meio da estratégia de pesquisa-ação, no noroeste gaúcho-município de São Luiz Gonzaga. A pesquisa foi dividida em três passos: o primeiro passo selecionou, por meio de entrevistas focais, uma unidade de produção representativa de cada sistema com base em uma tipologia segmentada em três sistemas (especializado; intermediário e tradicional); o segundo serviu para testar o sistema de gestão da pecuária leiteira em cada uma das três unidades de produção escolhidas; o terceiro analisou e discutiu os resultados obtidos nas entrevistas, visitas e em documentos. A pesquisa evidenciou a aplicabilidade do sistema de gestão da pecuária leiteira nos três sistemas estudados, utilizando os princípios e a lógica de decisão da teoria das restrições. Os princípios do modelo de decisão da teoria das restrições permitiram tornar mais ágil e coerente o processo de tomada de decisão, assim como as medidas de desempenho da teoria das restrições tornaram a tarefa mais fácil e aplicável. A abordagem sistêmica da teoria das restrições se adequou à complexidade dos sistemas de produção da pecuária leiteira.
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
O trabalho buscou identificar e avaliar a escolha do Imip à luz da teoria neoinstitucional, mediante os mecanismos isomórficos que caracterizam o campo das organizações de saúde. Trata-se de um estudo de caso, tendo o Imip como objeto de análise, voltado especificamente para dois modelos de informatização da operação e da gestão, a fim de verificar qual o mais adequado para as especificidades da instituição, incluindo o aspecto financeiro, custo/benefício. O primeiro modelo se refere a um sistema próprio de informatização; o segundo a um modelo de sistema de gestão já existente, comercializado por empresa especializada nesta tecnologia. A metodologia abrangeu pesquisas bibliográficas, documentais e de campo. O referencial teórico foi a teoria neoinstitucional e o trabalho de campo constou de uma pesquisa incluindo observação simples, visando compor variáveis dos dois modelos avaliados, e coleta de dados realizada por meio da aplicação de dois questionários: um questionário aberto, com os dirigentes do Imip, e um questionário misto, com cem colaboradores, utilizadores do sistema, escolhidos aleatoriamente, por sorteio. Entre os achados se identificou claras referências ao isomorfismo, principalmente o mimético, nas percepções dos indivíduos respondentes. Ao final da pesquisa, foi possível concluir que a contratação de um sistema de gestão hospitalar, já existente no mercado, concebido e comercializado por empresa de tecnologia especializada no segmento da saúde, justificou-se como a melhor escolha para a organização, pois, as semelhanças existentes entre os processos do Instituto e aqueles contidos no sistema eram muito mais relevantes que suas particularidades. Outro fator relevante levou em consideração os elevados custos para uma única instituição desenvolver e manter sozinha um sistema atualizado segundo as exigências normativas e técnicas necessárias às organizações de saúde e os padrões de qualidade da informação estabelecidos pelo SUS.
Resumo:
Por ano são gastos mais de R$ 15 bilhões de reais entre os benefícios de auxílio-saúde emitidos pelo INSS e os custos para viabilizar o processo. São realizadas, em torno de 7 milhões de pericias, das quais mais de 2 milhões tem resultado contrário por parte do médico perito. O objetivo deste trabalho é realizar uma leitura do processo de concessão de benefícios de auxílio-saúde pelo INSS sob a ótica da Teoria dos Jogos, com a análise da estrutura das interações entre segurado e perito com o INSS e os incentivos indesejados resultantes desta estrutura. Sendo que o segurado é incentivado a buscar o benefício mesmo sem ter, de fato, a necessidade. Resultando num aumento na quantidade de perícias realizadas por ano, diminuindo sua qualidade e eventualmente concedendo benefícios desnecessários. O perito, por sua vez, se defronta com uma atividade de alta complexidade e não dispõe do tempo necessário para uma análise cautelosa. Além disso, tem o incentivo a, em momentos de incerteza, conceder o benefício mesmo que o segurado não se enquadre corretamente nos requisitos necessários. Isto pode ocorrer, dentre outros fatores, devido ao tempo disponibilizado ao perito para analisar o caso com a atenção necessária não ser suficiente. Uma vez traçado o paralelo com a Teoria dos Jogos e os problemas de Common Pool Resources (CPR), é feita uma pesquisa nessa literatura em busca de maneiras de mitigar problemas similares ao pesquisado. Este paralelo também traz a possibilidade de pesquisar a literatura de Market Design acerca do redesenho da estrutura de mercados, com intuito de corrigir e desenvolver estes mercados. Estudos recentes apresentaram resultados positivos, sendo indicado, portanto, para trabalhos futuros, a implementação desta metodologia para o processo de concessão de benefícios de auxílio-saúde.
Resumo:
Nesta dissertação defendemos uma forma nova de medir o produto de software com base nas medidas usadas na teoria dos sistemas complexos. Consideramos o uso dessas medidas vantajoso em relação ao uso das medidas tradicionais da engenharia de software. A inovação desta dissertação sintetiza-se em considerar o produto de software como um sistema complexo, dotado de uma estrutura que comporta vários níveis e na proposta da correlação de gama longa como medida da complexidade de estrutura de programas fontes. Essa medida, invariante para a escala de cada nível da estrutura, pode ser calculada automaticamente. Na dissertação, primeiro descrevemos o processo de desenvolvimento do software e as medidas existentes para medir o referido processo e produto e introduzimos a teoria dos sistemas complexos. Concluímos que o processo tem características de sistema complexo e propomos que seja medido como tal. Seguidamente, estudamos a estrutura do produto e a dinâmica do seu. processo de desenvolvimento. Apresentamos um estudo experimental sobre algoritmos codificados em C, que usamos para validar hipóteses sobre a complexidade da estrutura do produto. Propomos a correlação de gama longa como medida da complexidade da estrutura. Estendemos essa medida a uma amostra codificada em Java. Concluímos, evidenciando as limitações e as potencialidades dessa medida e a sua aplicação em Engenharia de Software.
Resumo:
O presente estudo tem como objetivo analisar como os gestores da hotelaria percebem a relação da teoria do caos e turismo, descrever como é pensada e concebida a gestão do turismo; mostrar as características caopléxicas do turismo e sua gestão e identificar os elementos do padrão estratégico de gestão e planejamento na visão dos gestores dos Meios de Hospedagem. Os dados foram obtidos através da observação direta intensiva e aplicação de entrevistas aplicadas junto aos hoteleiros da cidade de Natal/RN. Constata que as teorias da mudança e do caos proporcionam visão do conjunto de relações, aspectos e implicações do turismo, com base nas incertezas e instabilidades ambientais e de mercado. Mostra que a maioria dos modelos de análise, planejamento e gestão do turismo ainda é limitada, em razão do seu caráter linear e unidimensional. Destaca que o objetivo da teoria do caos é fornecer explicações dos fenômenos, não é fazer previsões, pois é impossível prever o futuro a longo prazo. Trata das estratégias de gestão como geradoras de novas fontes de incerteza, pois a realidade não pode ser completamente representada por modelos. Ter consciência desses fatos significa, entretanto, considerar o campo de múltiplas possibilidades e oportunidades da mudança e do caos na gestão do desenvolvimento do turismo. Essas idéias foram aplicadas à análise da gestão do turismo na localidade investigada. Os questionamentos levantados no estudo pautaram-se em pesquisa bibliográfica, fundamentada, principalmente, em autores como Beni, Prahalad, Mintzberg, Ritto, Senge e Hamel. Conclui-se que na era do conhecimento, as organizações que continuam presas ao paradigma mecanicista têm dificuldade de acompanhar as mudanças do mercado e sendo a hotelaria uma indústria de serviços que tem características organizacionais complexas e adaptativas, é imprescindível que os empreendimentos hoteleiros funcionem como sistemas interativos, que acompanhem as mudanças de um mercado tão turbulento e instável tendo na teoria do caos e da complexidade uma das possibilidades de compreender a realidade fora do modelo mecanicista.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)