1000 resultados para Complexidade


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Complexity and constructivism in economics. This paper attempts to show and summarize the concept of rules, order and complexity introduced around the mid-twentieth century by Friedrich August von Hayek. It also attempts to create a current parallel between those concepts and the field of complexity economics. At the time of his writings, the author sought to present arguments against the Cartesian rationality. Nowadays, the concepts presented by him could also serve as arguments against the way of thought used in mainstream microeconomics. A debate can now be seen between the mainstream microeconomics and the authors of the complexity theory applied to the economy, which can be understood as explanations guided by generic assumptions versus natural explanations guided in a computational approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No Teeteto, em uma tentativa de definir o conhecimento, Platão trata da unidade e da complexidade segundo um modelo de análise dos complexos em elementos simples não analisáveis. Wittgenstein, no parágrafo 46 das Investigações Filosóficas, cita esse argumento do Teeteto, introduzindo uma crítica à sua própria noção de objeto, no Tractatus. Nosso tema será um exame das noções de elemento e composto, apresentadas no Teeteto e retomadas no Sofista, tendo como horizonte a aproximação, feita por Wittgenstein, entre o objeto do Tractatus e o elemento do Teeteto

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As transformações na dinâmica demográfica ocorrida nas últimas décadas nos espaços urbanos passam, em grande medida, pela reconfiguração territorial, econômica e social das áreas metropolitanas, na qual os movimentos das pessoas exercem influência fundamental. Para este trabalho, propomos uma abordagem sobre o movimento migratório intra-metropolitano em 14 áreas metropolitanas brasileiras, quais sejam: Belém, Belo Horizonte, Brasília, Campinas, Curitiba, Florianópolis, Fortaleza, Goiânia, Porto Alegre, Recife, Rio de Janeiro, Salvador, São Paulo e Vitória; questionamos se este fenômeno estaria alterando a histórica “pressão pelas áreas centrais metropolitanas” ou se essa população está mudando de residência, mas continua trabalhando no núcleo. Pensando sobre os movimentos da população ocupada nas regiões metropolitanas, buscamos ainda considerar os tipos de movimentos realizados (núcleo-periferia; periferia-núcleo e periferia-periferia) com uma caracterização desta população. Portanto, nossa reflexão está relacionada às diferentes lógicas que operam sobre o lugar de moradia das pessoas e os lugares de outros fazeres que determinam a vida urbana, especialmente o lugar de trabalho. A localização dos postos de trabalho em áreas mais “centrais” e a quantidade considerável de pessoas que se deslocam para estes municípios também são fenômenos expressivos ainda. Será que os movimentos cotidianos podem se apresentar como uma alternativa para a residência em outras áreas da metrópole e o trabalho nas áreas centrais? Nossa proposta é a de que esses processos precisam ser analisados cada vez mais em conjunto com a migração intra-metropolitana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo procura analisar a fragmentação institucional de uma organização pública, o Fundo Nacional de Desenvolvimento da Educação (FNDE), que passou por inúmeras transformações organizacionais, como fusões e incorporações de outros órgãos. Essas mudanças parecem ter gerado, em seu processo histórico, uma pluralidade de sub-culturas dentro da organização que são compartilhadas por grupos com diferentes interesses e valores. No sentido de se compreender como agem esses grupos foi desenvolvido um estudo que ocorreu em três grandes etapas. Na primeira criaram-se tipos ideais, que representam um perfil geral dos diferentes grupos que compõem a organização, com seus valores e interesses. Concomitantemente ao processo de criação de tipos ideais, foi desenvolvida uma análise histórico-institucional, onde foram verificados fatos importantes na história do FNDE. Na segunda etapa foram realizadas entrevistas com os servidores de cada grupo, onde se buscou colher informações sobre suas percepções acerca da história do FNDE, assim como seus principais interesses e valores. Na terceira, e última, etapa comparou-se os tipos ideais aos depoimentos dos entrevistados, estabelecendo-se um quadro de seu processo histórico e de suas características culturais. A partir desse quadro desenvolveu-se uma análise sociológico-interpretativa de como essas características geram desafios para alinhamento de valores entre os servidores da organização hoje.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The motivation of this study is based on the expectation of understanding, at least in part, the reason why the brazilian academic production ¿ which is among the largest if compared to the developing countries, has not been translated in a useful way into concrete technology transference for the production sector. The supposition that different cultures and subcultures, in terms of values, behavior, practices among organizations and groups of selected actors involved in that process,- which is the central problem of this study, and peculiar to the technology context, has elected that relationship process the object of this research this study theoretical fundaments rely on culture and technology to analyze the subcultures which manifest themselves through the typified groups of researchers, in the public organizations, small scale employers, acting on technology based companies in the private sector (ebts) and mediators. Who also act in the process the preliminary step was the case study. Several qualitative methods an procedures were used. And the investigation has advanced toward interacting interviews, at the end added by the focal group method. The conclusions reject the existence of incompatibility among the subject groups points of view, however, points out some divergent values, the presence of mutual stereotypes and also confirms the supposition that the research platform is strongly influenced by the financial factor. Although, the study reveals that the presence of common objectives which lay behind the cited divergences make possible to present a core of practical suggestions to implement the studied relationships for the benefit of the production sector as well. The peculiarities perceived while dealing with that singular context suggest futures research to clarify possible new and obscure areas in that complex relationships.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In a world where the companies are trying to compete on a global scale, the positioning strategies direct them to go beyond the geographical boundaries of their base countries, seeking for other markets, as a way to keep globally competitive. These conditions make crucial the roles performed by their managers, exposed to different contexts, mainly economical, political, social and cultural and to face the task to manage enterprises like a challenge, probably bigger than the one found on their base countries. This speech tries to examine how much expatriated Brazilian managers feel the influence of local cultural factors in their decisional processes, taking into consideration that they are embedded in their cultural home countries, and they can suffer an impact by the culture of other countries. With this research it is intended to gather empirical material that will supply clues and allow to advance on studies that will make a relationship between decisional process and local culture, through a case study in a Brazilian state-owned energy company and its subsidiaries in South American countries, hoping that the mentioned studies will somehow contribute to a better understanding of the problems that have been stressed in the last decades. Also considering that the vast majority of the theoretical and empirical material about this matter has its own source on the western developed countries and are, in this way, culture-bounded, we hope to increase the production of studies and researches applied to the Latin American reality, mainly the Brazilian one.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o estudo da relação entre a complexidade do conhecimento e sua construção no ambiente escolar apóia-se na Epistemologia Genética e no paradigma da complexidade. A investigação se delineou como um estudo qualitativo, inspirado na metodologia de Estudo de Caso. O problema de pesquisa procurou indagar a repercussão da fragmentação dos conteúdos programáticos em disciplinas nos anos finais do Ensino Fundamental. Os dados foram coletados através de múltiplas fontes de evidência. Realizaram-se entrevistas, inspiradas na abordagem clínica piagetiana, com alunos e professores; - observações diretas do tipo participante como observador e análise documental. Os dados coletados indicam que as práticas escolares apresentam pressupostos epistemológicos e paradigmáticos que se apóiam no senso comum e estendem-se em métodos empiristas/aprioristas e reducionistas. O pensamento do aluno é manipulado de forma a se enquadrar ao modelo escolar. A fala é reduzida a uma mera ação prática, pois, embora exercida, o professor desconsidera a importância do diálogo. Por sua vez, os exercícios apresentam-se como dois lados de uma mesma moeda. Podem manifestar-se como promotores de técnicas empiristas, quando colocados sob a forma de repetição para a memorização. Todavia, podem se revelar como um recurso extremamente valioso quando colocam um problema, apresentam desafios e permitem a testagem de hipóteses do sujeito. Já os conteúdos programáticos visam a uma eterna diferenciação do objeto de estudo, a qual se configura como uma simples fragmentação capaz de eliminar qualquer dimensão do conhecimento enquanto totalidade. O tempo da aprendizagem acaba por se igualar com aquele que o professor gasta para expor a informação ao aluno. Isso o relega a uma posição passiva que retira o caráter de equilíbrio dinâmico do conhecimento, pois esse sempre se apresenta como um produto pronto e acabado. A escola, então, tem um desconhecimento do próprio conhecimento e o senso comum, que é empirista/apriorista no campo epistemológico, é reducionista em sua dimensão paradigmática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa assenta-se num campo emergente dos estudos organizacionais e de estratégia: Cognição Gerencial & Organizacional (Managerial e Organizational Cognition, daqui em diante, MOC). Avanços teóricos e metodológicos no campo da Ciência Cognitiva têm viabilizado o acesso, mapeamento e análise de como indivíduos produzem sentido e agem de modo inteligente. A aplicação desse ferramental tem permitido a mensuração do que se convencionou chamar “complexidade cognitiva situacional”, ou seja, o grau de diferenciação e integração com que uma pessoa percebe determinada situação, problema, objeto ou fenômeno. Tem havido, no entanto, controvérsias sobre a relação entre essa variável e, em ultima análise, o desempenho do indivíduo na realização de uma atividade e no alcance de resultados. Enquanto alguns estudos têm encontrado apenas relações residuais, grande parte das pesquisas têm encontrado relações positivas, na forma de “U invertido” ou, até mesmo, negativas entre complexidade cognitiva e desempenho. Nosso objetivo principal aqui é identificar como se deu essa relação na indústria siderúrgica no Brasil no período de 2001 a 2003. Para atingir esse objetivo estruturamos esta pesquisa como segue: no primeiro capítulo identificamos as principais bases teóricas e conceituais do campo. Advinda predominantemente da Filosofia, Sociologia e Ciência Cognitiva, essa base fornece os alicerces sobre os quais a Teoria de MOC, de um modo geral e esta pesquisa, em particular, se fundamentam. No capítulo seguinte apresentamos o campo de MOC em si, com especial ênfase sobre suas origens, processos cognitivos estudados, métodos de pesquisa e as principais relações causais exploradas. Em seguida apresentamos um estudo empírico realizado com dois experts e com os CFOs de três das principais companhias siderúrgicas no Brasil. Buscamos, primordialmente, identificar dois tipos de fenômenos nos dados obtidos: diferenças de complexidade cognitiva entre os experts e os executivos, e o tipo de relação existente entre a complexidade cognitiva dos executivos e o desempenho organizacional. Nesse capítulo apresentamos o problema de pesquisa, os objetivos da investigação, as hipóteses, a metodologia utilizada, os resultados e as análises. Finalmente, concluímos com alguns apontamentos em relação ao campo de MOC e à pesquisa empírica, avaliando algumas forças e fraquezas deste trabalho e sugerindo direções futuras de pesquisa nesse campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.