888 resultados para Reproducing kernel
Resumo:
Tackling a problem requires mostly, an ability to read it, conceptualize it, represent it, define it, and then applying the necessary mechanisms to solve it. This may sound self-evident except when the problem to be tackled happens to be “complex, “ “ill-structured,” and/or “wicked.” Corruption is one of those kinds of problems. Both in its global and national manifestations it is ill-structured. Where it is structural in nature, endemic and pervasive, it is perhaps even wicked. Qualities of the kind impose modest expectations regarding possibilities of any definitive solution to this insidious phenomenon. If so, it may not suffice to address the problem of corruption using existing categories of law and/or good governance, which overlook the “long-term memory” of the collective and cultural specific dimensions of the subject. Such socio-historical conditions require focusing on the interactive and self-reproducing networks of corruption and attempting to ‘subvert’ that phenomenon’s entire matrix. Concepts such as collective responsibility, collective punishment and sanctions are introduced as relevant categories in the structural, as well as behavioral, subversion of some of the most prevalent aspects of corruption. These concepts may help in the evolving of a new perspective on corruption fighting strategies.
Resumo:
The FE ('fixed effects') estimator of technical inefficiency performs poorly when N ('number of firms') is large and T ('number of time observations') is small. We propose estimators of both the firm effects and the inefficiencies, which have small sample gains compared to the traditional FE estimator. The estimators are based on nonparametric kernel regression of unordered variables, which includes the FE estimator as a special case. In terms of global conditional MSE ('mean square error') criterions, it is proved that there are kernel estimators which are efficient to the FE estimators of firm effects and inefficiencies, in finite samples. Monte Carlo simulations supports our theoretical findings and in an empirical example it is shown how the traditional FE estimator and the proposed kernel FE estimator lead to very different conclusions about inefficiency of Indonesian rice farmers.
Resumo:
Tackling a problem requires mostly, an ability to read it, conceptualize it, represent it, define it, and then applying the necessary mechanisms to solve it. This may sound self-evident except when the problem to be tackled happens to be “complex, “ “ill-structured,” and/or “wicked.” Corruption is one of those kinds of problems. Both in its global and national manifestations it is ill-structured. Where it is structural in nature, endemic and pervasive, it is perhaps even wicked. Qualities of the kind impose modest expectations regarding possibilities of any definitive solution to this insidious phenomenon. If so, it may not suffice to address the problem of corruption using existing categories of law and/or good governance, which overlook the “long-term memory” of the collective and cultural specific dimensions of the subject. Such socio-historical conditions require focusing on the interactive and self-reproducing networks of corruption and attempting to ‘subvert’ that phenomenon’s entire matrix. Concepts such as collective responsibility, collective punishment and sanctions are introduced as relevant categories in the structural, as well as behavioral, subversion of some of the most prevalent aspects of corruption. These concepts may help in the evolving of a new perspective on corruption fighting strategies.
Resumo:
This thesis presents a system to recognise and classify road and traffic signs for the purpose of developing an inventory of them which could assist the highway engineers’ tasks of updating and maintaining them. It uses images taken by a camera from a moving vehicle. The system is based on three major stages: colour segmentation, recognition, and classification. Four colour segmentation algorithms are developed and tested. They are a shadow and highlight invariant, a dynamic threshold, a modification of de la Escalera’s algorithm and a Fuzzy colour segmentation algorithm. All algorithms are tested using hundreds of images and the shadow-highlight invariant algorithm is eventually chosen as the best performer. This is because it is immune to shadows and highlights. It is also robust as it was tested in different lighting conditions, weather conditions, and times of the day. Approximately 97% successful segmentation rate was achieved using this algorithm.Recognition of traffic signs is carried out using a fuzzy shape recogniser. Based on four shape measures - the rectangularity, triangularity, ellipticity, and octagonality, fuzzy rules were developed to determine the shape of the sign. Among these shape measures octangonality has been introduced in this research. The final decision of the recogniser is based on the combination of both the colour and shape of the sign. The recogniser was tested in a variety of testing conditions giving an overall performance of approximately 88%.Classification was undertaken using a Support Vector Machine (SVM) classifier. The classification is carried out in two stages: rim’s shape classification followed by the classification of interior of the sign. The classifier was trained and tested using binary images in addition to five different types of moments which are Geometric moments, Zernike moments, Legendre moments, Orthogonal Fourier-Mellin Moments, and Binary Haar features. The performance of the SVM was tested using different features, kernels, SVM types, SVM parameters, and moment’s orders. The average classification rate achieved is about 97%. Binary images show the best testing results followed by Legendre moments. Linear kernel gives the best testing results followed by RBF. C-SVM shows very good performance, but ?-SVM gives better results in some case.
Resumo:
O contexto desta tese é a Inteligência Artificial aplicada à Educação, especificamente a área dos Sistemas Tutores Inteligentes (STI). Apesar das características multidisciplinares e interdisciplinares, a preocupação maior do trabalho se dá quanto aos aspectos computacionais. A multidisciplinaridade está na relação entre os aspectos educacionais, filosóficos e psicológicos inerentes a toda construção de um software educacional, e a interdisciplinaridade acontece no relacionamento da IA com a Informática na Educação. Esta tese propõe o uso de aspectos afetivos como apoio à decisão de ação por parte de um STI. As nossas hipóteses fundamentais são: um sistema de ensino e aprendizagem computacional deve levar em consideração fatores afetivos tornando mais flexível a interação; e a arquitetura de um sistema computacional de interação em tempo real com agentes humanos deve prever explicitamente, em sua arquitetura básica, as crenças e o raciocínio afetivos. Para demonstrar essas idéias, foi definida uma arquitetura para apoiar um STI de modo a reconhecer alguns fatores afetivos, representativos de estratégias de ação de agentes humanos em interação com sistemas. Esse reconhecimento é realizado através de construções retiradas dos comportamentos observáveis do agente humano em contextos determinados. A arquitetura prevê um Sistema Multiagente para executar a percepção de fatores afetivos e da conduta do aluno em interação e de um agente pedagógico, representando o tutor. O agente tutor é modelado através de estados mentais e é responsável pelo raciocínio de alto nível. O modelo computacional de agentes de Móra [MÓR2000] foi utilizado para implementar o “kernel cognitivo” (termo cunhado por Móra e Giraffa [GIR99] que designa a parte responsável pela deliberação). O “kernel cognitivo” decide que ações tomar para um conjunto de características de uma avaliação pedagógica. A utilização de fatores afetivos e da avaliação cognitiva de situações emocionais permite a flexibilização das estratégias quanto à adaptabilidade a agentes humanos. Particularmente, foi adotado o enfoque cognitivo para análise de situações, baseado em teorias cognitivistas sobre emoções. O uso de tecnologia multiagente, no enfoque mentalístico, especificamente BDI (Belief, Desire, Intention) e da ferramenta X-BDI, permite a formalização e construção de um tutor atuante na avaliação pedagógica. A modelagem do aluno passa a ser constituída de aspectos qualitativos e quantitativos. Estudos de casos são apresentados, em situações que consideram os fatores afetivos e nas mesmas situações sem estas considerações. As decisões do tutor para agir são analisadas e confrontadas. Os resultados mostram um impacto positivo na adaptabilidade e ação pedagógica do tutor, sendo coerente com as teorias modernas [SAL97],[DAM2000] sobre as emoções que as consideram partes fundamentais para agir. A maior contribuição desta tese está na agregação de raciocínio sobre a afetividade envolvida em situações de ensino aprendizagem de agentes humanos e artificiais e avança dentro da perspectiva de pesquisa do grupo de IA da UFRGS, quanto ao desenvolvimento de Ambientes de Ensino e Aprendizagem modelados com tecnologia multiagente, com o uso da metáfora de estados mentais.
Resumo:
Uma linguagem orientada ao problema de projeto estrutural de edifícios e a correspondente estrutura de armazenamento de dados são apresentados, como núcleo principal do sistema PROADE. Objetiva-se assim permitir ao engenheiro estrutural descrever o problema em termos correntes de Engenharia, organizandose os dados recebidos para posterior análise e dimensionamento da estrutura. São discutidos o problema PROADE e os dados correspondentes, seguidos pela descrição das estruturas de armazenamento de dados do sistema. A seguir, define-se a linguagem PROADE e finalmente apresenta-se a organização do sistema PROADE.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Esta pesquisa visa o estudo de características físicas e mecânicas de solos subtropicais, para aplicação na construção de habitações de baixo custo, abordando-se principalmente a técnica de construção com paredes monolíticas compactadas. A opçao pelo estudo do solo, realizado sem a adição de estabilizantes fisico-químicos, baseia-se no fato de que a mesma nem sempre é necessária, embora seja vital em alguns casos. Através da revisão de literatura, são ressaltadas as propriedades dos solos consideradas importantes para construção deste tipo de moradia, bem como os fatores envolvidos na durabilidade da mesma. Foi realizado o estudo de jazidas de solos, pertencentes a algumas das unidades geotécnicas da região metropolitana de Porto Alegre, levando-se sempre em conta este tipo de aplicação. Para tanto, são realizados ensaios laboratoriais de caracterização física dos solos, bem como de comportamento mecânico, testando-se resistência à compressão simples e à erosão, e absorção por capilaridade. Além disso, é feita a análise qualitativa da durabilidade de blocos compactados frente a exposição ao tempo. Estes blocos visam simular a condição de pequenos segmentos de paredes. Os resultados obtidos são analisados e comparados com as recomendações da prática deste tipo de construção, avaliando-se a validade das mesmas para o caso de solos tropicais e subtropicais
Resumo:
A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.
Resumo:
Collective bargaining, it is widely claimed, has been on the increase in Brazil since the late 1970s. This is seen as part of a broader change in Brazilian industrial relations towards a hybrid system of interest representation, in which elements of both the old state corporatism and pluralism now coexist. However, there is little or no systematic empirical evidence available to support this conclusion. This thesis addresses the question of the strengthening of collective bargaining as a method of job regulation in Brazil by providing a detailed empirical study. The questions of this study are: (a) how important has collective bargaining become in establishing provisions on the terms and conditions of the employment relationship which are not simply reproducing rules established via state regulation?; and (b) what factors accounted for changes in the content of these provisions? An analysis of 10,734 provisions in 287 collective agreements in manufacturing industries in the Metropolitan Area of Porto Alegre, the capital of the southernmost state of Rio Grande do Sul, was carried out for the period of 1978-95. This analysis offers support for the thesis that the significance of collective bargaining has increased. It shows that: (a) most substantive provisions created rules that were not established in other forms of regulation; (b) provisions that replicate the contents of regulatory legislation accounted for one out of seven substantive provisions, but in spite of being a copy of the law, these provisions are not entirely neutral for job regulation; (c) collective agreements also laid down substantive provisions benefiting employers, and not simply employees; and (d) the pace of change in bargaining outcomes oscillated with changes in the economic, legal and judicial contexts. This pace of change was mostly affected by (i) the rate of unemployment, (ii) the degree of openness of the economy to foreign competition, (iii) the capacity of employers to pass on costs to costumers, (iv) stabilisation policies aimed at curbing inflation, (v) the Federal Constitution made in 1988, (vi) the official rate of minimum wages, and (vii) the conduct of the labour judicial system in settling collective disputes.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
This paper deals with the testing of autoregressive conditional duration (ACD) models by gauging the distance between the parametric density and hazard rate functions implied by the duration process and their non-parametric estimates. We derive the asymptotic justification using the functional delta method for fixed and gamma kernels, and then investigate the finite-sample properties through Monte Carlo simulations. Although our tests display some size distortion, bootstrapping suffices to correct the size without compromising their excellent power. We show the practical usefulness of such testing procedures for the estimation of intraday volatility patterns.
Resumo:
A simple exercise on growth and inflationary financing of public expenditures is presented in this note. In a parameterized overlapping generations mode1 where government expenses positivc1y affects the growth rate of human capital, steady state capital and output increase with inflation, reproducing the so called Tobin effect. For large inflation rates, however, government authorities cannot affect real variables and there are only nominal effects. It is also shown that the optimal policy implies some inflation but not growth maximization.