1000 resultados para Computação reconfigurável
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Análise do setor da agências de internet no Brasil : uma aplicação de simulação dinâmica de sistemas
Resumo:
Esta dissertação tem por objetivo analisar a participação de mercado dos diferentes grupos estratégicos que compõem o setor de agências de internet no Brasil, bem como as mudanças decorrentes de alterações nas variáveis críticas de concorrência, tais como preço, investimento em propaganda, investimento em tecnologia e disponibilidade de mão-de-obra.
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.
Resumo:
Atualmente, uma profusão de soluções chamadas de Web 2.0 e redes sociais está causando um grande impacto no desenvolvimento da Internet, comparando-se à era “ponto-com” em termos de crescimento, investimentos e empolgação. Estas iniciativas possuem em comum um elevado grau de formação de comunidades, e de criação e compartilhamento de conteúdo por parte do usuário, dentre outras características. Acredita-se que as redes sociais possuam um grande potencial inovador e disruptivo tanto para a sociedade quanto para o mundo empresarial. Entretanto, como transformar as redes sociais e aplicações Web 2.0 em modelos de negócios auto-sustentáveis ainda é um desafio para o mercado. Esta dissertação objetiva auxiliar a compreensão e abordagem deste tema propondo uma ontologia específica para modelos de negócios de redes sociais na internet. Isto se realiza por meio do desenvolvimento de um ensaio teórico de viés exploratório, baseado em extensa, porém não exaustiva, revisão de literatura abordando modelos de negócios, redes sociais e demais temas relacionados. A ontologia criada é então aplicada na representação de modelos de negócio de redes sociais na internet. Este trabalho também fornece uma visão geral do fenômeno Web 2.0, abordando algumas de suas principais características tecnológicas e socioeconômicas.
Resumo:
This work proposes an animated pedagogical agent that has the role of providing emotional support to the student: motivating and encouraging him, making him believe in his self-ability, and promoting a positive mood in him, which fosters learning. This careful support of the agent, its affective tactics, is expressed through emotional behaviour and encouragement messages of the lifelike character. Due to human social tendency of anthropomorphising software, we believe that a software agent can accomplish this affective role. In order to choose the adequate affective tactics, the agent should also know the student’s emotions. The proposed agent recognises the student’s emotions: joy/distress, satisfaction/disappointment, anger/gratitude, and shame, from the student’s observable behaviour, i. e. his actions in the interface of the educational system. The inference of emotions is psychologically grounded on the cognitive theory of emotions. More specifically, we use the OCC model which is based on the cognitive approach of emotion and can be computationally implemented. Due to the dynamic nature of the student’s affective information, we adopted a BDI approach to implement the affective user model and the affective diagnosis. Besides, in our work we profit from the reasoning capacity of the BDI approach in order for the agent to deduce the student’s appraisal, which allows it to infer the student’s emotions. As a case study, the proposed agent is implemented as the Mediating Agent of MACES: an educational collaborative environment modelled as a multi-agent system and pedagogically based on the sociocultural theory of Vygotsky.
Resumo:
Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.
Resumo:
A cidade de Piraí, no estado do Rio de Janeiro, Brasil, é palco do programa Piraí Digital, um leque de iniciativas, em cinco áreas de atuação – governo, educação, saúde, negócios e cidadania –, com o objetivo de vencer a exclusão digital no município e contribuir para seu desenvolvimento. O programa foi estudado por meio da associação entre um modelo heurístico para análise da inclusão digital e a Teoria Ator-Rede (ANT). O trabalho apresenta a descrição da evolução do programa segundo os atores que o construíram. Entre 1997 e 2009, Piraí Digital contribuiu para uma série de mudanças positivas em Piraí, notadamente nas áreas de educação, a qual adotou a computação 1:1 em toda a rede municipal no ano de 2009; saúde, que utiliza a estrutura de rede de computadores e internet da cidade para disseminar seus sistemas; e governo, onde a administração pública teve ganhos de produtividade e arrecadação por meio da informatização da máquina administrativa. O estudo de Piraí Digital permite compreender a importância da associação de artefatos – rede de computadores, telecentros, Planos Diretores e outros – e das pessoas nos esforços para vencer a exclusão digital e contribuir para o desenvolvimento local. Explorando o contraste entre a grande notoriedade de Piraí Digital fora do município e o baixo conhecimento do programa pela população local, o autor faz a analogia com uma obra de saneamento, pouco conhecida e visível, mas essencial para a população. Em Piraí, o saneamento digital está pronto, com bits jorrando das torneiras nas escolas e a saúde se beneficiando da TI para escoar seu fluxo de informações para benefício dos cidadãos piraienses.
Resumo:
Dicinodontes possuem um mosaico de características, que incluem, por exemplo, extrema redução dentária, movimento propalinal da mandíbula, e o desenvolvimento de uma postura diferenciada em alguns gêneros. Nesses, enquanto os membros anteriores permanecem abduzidos, em uma postura primitiva, os posteriores se tornam totalmente aduzidos. Para discutir aspectos paleobiológicos, foram efetuadas análises morfofuncionais e biomecânicas em espécimes do gênero Dinodontosaurus Romer, 1943, um dicinodonte de porte médio do Mesotriássico do estado do Rio Grande do Sul, Brasil. É endossada a sinonímia da maioria das espécies do gênero com Dinodontosaurus turpior, excetuando-se Dinodontosaurus platygnathus, cujos materiais apresentam características conflitantes, e é tratado aqui como nomen dubium. É apresentada uma sucinta descrição osteológica para as formas juvenis do gênero, nos quais se observa a presença de seis vértebras sacrais, além de um mínimo de 17 caudais, adicionando informações que permitem novas reconstruções esqueletais. Enfoque é dado na miologia facial e dos membros, com base na comparação de modelos para diferentes taxa, seguindo a abordagem de suporte filogenético de animais viventes. Apenas músculos de presença inequívoca são reconstituídos, a menos quando há argumentos morfológicos convincentes. A partir de observações morfofuncionais, é eliminada a possibilidade de Dinodontosaurus utilizar suas presas com a mandíbula aberta, seja para alimentação ou defesa, e é reforçado seu caráter como ornamentação Na falta de análogos posturais modernos, comparações com preguiças terrícolas extintas levaram alguns autores a propostas de uma postura bípede para os dicinodontes, ao menos facultativa, para se erguerem nas patas traseiras e alcançarem níveis mais elevados de vegetação. Para testar essa hipótese, foram abordados vários aspectos biomecânicos envolvidos na postura bípede, em Dinodontosaurus. Seu centro de massa foi localizado a partir da suspensão de modelos em argila, estando posicionado em um ponto, no plano sagital, aproximadamente na metade da distância entre os estilopódios anteriores e posteriores, um pouco mais próximo dos primeiros; para os indivíduos juvenis, um modelo digital obtido através de scanner 3D a laser também corroborou esse posicionamento, o que sugere que a postura bípede não poderia ser facilmente mantida sem apoio, e um caminhar bípede seria totalmente impraticável. Foram estimados os momentos de resistência da coluna vertebral, a partir de medidas da largura e altura dos centros vertebrais em sua borda posterior, sendo que os resultados foram compatíveis com um animal de postura quadrúpede. Foram também calculados os índices de capacidade atlética para os ossos longos dos membros anteriores e posteriores; para isso, foram estimadas as massas, com os indivíduos juvenis atingindo entre 23 e 32kg, enquanto o adulto não ultrapassaria 300kg. As massas foram obtidas baseando-se em estimativas de volume a partir de silhuetas e de modelos tridimensionais em computação Os valores obtidos para os índices de capacidade atlética são muito superiores aos de outros animais descritos na literatura, embora sejam compatíveis com outros terápsidos não-mamalianos julgados quadrúpedes, e estão na mesma ordem de grandeza entre os ossos dos membros anteriores e posteriores, o que também alude à postura quadrúpede. Através de observações morfológicas gerais, localização do centro de massa, estimativa de momentos de resistência da coluna vertebral e cálculo de índices de capacidade atlética para os membros, conclui-se que, ao menos no que concerne a Dinodontosaurus, não há evidências que suportem as analogias morfofuncionais com as preguiças terrícolas, animais que apresentam diversas adaptações para o bipedalismo. Os resultados para os índices de capacidade atlética também lançam dúvidas sobre sua aplicabilidade generalizada em comparações paleobiológicas.
Resumo:
Na última década muitos esforços têm sido feitos em verificação formal de propriedades de agentes do cálculo-π. Uma dessas propriedades é a equivalência observacional, que serve para determinar se um processo é equivalente a sua especificação. Contudo, a verificação de equivalência observacional não é um problema trivial. A maioria dos algoritmos destinados a verificação de equivalência são baseados na construção de sistemas de transições rotuladas (π-autômatos). O principal problema com essa abordagem é o grande número de estados envolvidos podendo chegar a um número infinito. Montanari e Pistore mostram que é possível gerar π-autômatos finitos para agentes-π e é possível reduzir a quantidade de estados desses π-autômatos, através da identificação dos nomes ativos. Um nome é semanticamente ativo em um agente se ele pode ser executado de forma observável por ele. Este é um trabalho de análise estática, que tem por objetivo coletar os possíveis nomes ativos contidos em expressões-π, utilizando para isso um sistema de tipos. A vantagem da utilização de sistemas de tipos em relação a outras formas de análise estática é que sistemas de tipos são sistemas lógicos, logo as técnicas de prova da lógica podem ser aproveitadas no estudo de propriedades de sistemas de tipos. Além disso sistemas de tipos são definidos através da estrutura sintática de expressões, facilitando assim as provas por indução estrutural. Assim a principal contribuição deste trabalho é a elaboração do Active-Base-π, um sistema de tipos para a coleta de nomes ativos de expressões-π.
Resumo:
O objetivo deste estudo é propor um modelo de análise integrada para a forma de atuação dos bancos brasileiros no ambiente da Internet. Para tanto foi conduzido um estudo de caso único com o Banco do Brasil. A maioria das entrevistas foi realizada nas sedes administrativa e de tecnologia do banco na cidade de Brasília, DF. Foi proposto um Modelo de Análise Integrada baseado em várias teorias e estruturas da área de estudos organizacionais e sistemas de informação. Entre as descobertas da pesquisa está a constatação de que o fenômeno estudado pode ser satisfatoriamente compreendido com o emprego de todas as teorias selecionadas, comprovando a complexidade do objeto desta pesquisa. O estudo apresentou entre suas limitações o fato de ter sido um estudo de caso único, como também a impossibilidade de se realizar esta pesquisa em amplo espectro, com um número consideravelmente maior de organizações. O ineditismo e a contribuição deste estudo residem no fato de ter proposto um modelo integrado com teorias e estruturas de análise que facilitam a compreensão do fenômeno observado. Em estudos futuros o pesquisador poderia incluir a pesquisa em um número maior de instituições para enriquecer a análise.