875 resultados para Coincidência de aplicações


Relevância:

20.00% 20.00%

Publicador:

Resumo:

I use Search models to study decentralized markets of durable goods. I explore the concept of market liquidity of Lippman and McCall (1986) and show that the theory of optimal search is useful to address the following issues: What governs the time required to make a transaction on these markets? What is the relationship between the price of goods and the time required to make transactions? Why is optimal to wait to make a transaction in markets where individuals discount future utility? What is the socially optima search level? Two specifications are used, the traditional model of job search and a version of Krainer and LeRoy (2001) model.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa aplica o cálculo dos tempos de trabalho, incorporados às exportações de diferentes países, para avaliar de um ângulo novo as relações de troca internacionais. Ao final, ela enfoca as diferenças de critério que resultam na avaliação social de projetos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dois importantes aspectos atualmente tratados, com vistas ao aperfeiçoamento do Sistema de Contas Nacionais, dizem respeito à incorporação de uma contabilidade natural e ao estabelecimento de uma contabilidade social em tempos de trabalho. Esta pesquisa desenvolve uma metodologia de cálculo de tempos de trabalho direto (o equivalente trabalho), a partir das matrizes de Leontief. Analisa então algumas aplicações desse tipo de cálculo, inclusive para uma avaliação social do consumo de capital natural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estudar a regularidade de soluções de Equações Diferenciais Parciais Elípticas da forma Lu = f, para f 2 Lp(­), onde p > 1. Para isto, usamos a Decomposição de Calderon-Zygmund e um resultado que é consequência deste, o Teorema da Interpolação de Marcinkiewicz. Além disso, usando quocientes-diferença provamos a regularidade das soluções para o caso p = 2 e L = ¡¢ de uma forma alternativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa discute configurações institucionais ótimas e sugere, nas atuais circunstâncias brasileiras, mecanismos de cooperação inter-institucional, de sorte a maximizar a eficiência de ações conjuntas entre agências regulatórias e de defesa da concorrência, minimizando os custos de coordenação. A pesquisa contém três partes. A primeira discute aspectos teóricos de um sistema de competências complementares entre a autoridade de defesa da concorrência e a agência regulatória, destacando suas eventuais vantagens comparativamente às possíveis configurações institucionais alternativas. A segunda contém breve sumário da experiência histórico-concreta nos planos mundial e nacional, procurando situar, na medida do possível, diferentes países e setores em tipologia sugerida na primeira parte. A terceira apresenta algumas recomendações de política.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, nós estudamos propriedades básicas de aplicações monótonas por partes, utilizando a Teoria Kneading na obtenção de uma condição suficiente para a existência de conjugção topológica entre uma certa classe de aplicações padrão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The general objective of this research is to verify which attributes are most relevant to a stock photography agency that represent the purchaser's standards of choice. For this objective to be accomplished, qualitative interviews with the customers of stock photography agencies had been made in order to raise the attributes considered with relevance in the process of choice for the Brazilian stock photography agency market. The levels of each attribute to be tested had arisen through the mapping of the products and services offered by the competition and the relative weight assigned to each one of the attributes related to the research in the choices for a stock photography agency. A transversal study was made with a sample of stock photography agencies customers from Brazil¿s Southeastern region. For the analysis of this data, a survey method was used, that, according to MALHOTRA (2006: 182), involves a structuralized questionnaire to be answered by an interview that elucidates specific information, in which the questions had a predetermined order. This questionnaire was presented through interviews on the Internet. The method adopted for this analysis was a joint analysis. A sampling of 1000 customer stock photography agencies were selected, which were represented by a didactic book editor, advertising agencies, editorial companies, etc., in the states of Rio de Janeiro, São Paulo, Espírito Santo and Minas Gerais. They had been obtained by 16 stimulations, or cards, for the application of the companies. Of the sample of 1000 customers of stock photography agencies, 7,8% responded to the research. The attribute most relevant in accordance with the presented results is the availability of images in high resolution for layout. Its relative importance was 40,78%. At the end of the study, the management implications were propitiated to the stock photography agencies managers inabling them to be more competitive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada a síntese e a caracterização de compostos do tipo 2-(2'-hidroxifenil)benzazólicos, fluorescentes e com um grande deslocamento de Stokes, devido a um mecanismo de transferência protônica intramolecular no estado excitado (ESIPT). Estes derivados possuem a função amino, de grande versatilidade sintética. A possibilidade de aplicação dos compostos sintetizados foi testada em cinco diferentes sistemas. Os derivados foram utilizados como monômetros vinilênicos e acriloilamida para a polimerização com metacrilato de metila para a produção de novos materiais poliméricos orgânicos fluorescentes; como sondas fluorescentes para proteínas, marcando com sucesso albumina sérica bovina, apresentando conjugados com maior fotoestabilidade em relação a sondas comerciais; como uma molécula com propriedades altamente não-lineares, possuindo o maior valor para a primeira hiperpolarizabilidade conhecido até hoje; como ligante para a complexação com metais de transição. com potencial aplicação em dispositivos orgânicos emissores de luz, e como derivados silifuncionalizados para a obtenção de materiais híbridos através de reação sol-gel, e a partir destes, obter os primeiros aerogéis de sílica fluorescentes por ESIPT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A relevância da tecnologia de informação (TI) nas empresas é percebida de várias formas. Uma das maneiras de perceber tal importância é através dos altos volumes de recursos financeiros investidos em projetos de TI. Além disto, há evidências indicando uma tendência crescente nos orçamentos de capital de projetos de TI. Este cenário pode conduzir à discussão sobre os métodos utilizados para justificar tais investimentos, face os vários tipos de retornos esperados e os riscos envolvidos. Em adição, certos projetos podem incorporar características tais como flexibilidade gerencial a fim de aproveitar situações benéficas ou evitar situações prejudiciais, possibilidade de criação de oportunidades futuras a partir dos investimentos atuais e divisão da sua análise e execução em etapas. Se assim for, tais projetos podem ser avaliados através da abordagem de opções reais. Esta abordagem reconhece e precifica o valor adicionado pelas decisões contingenciais que podem ser tomadas ao longo da vida útil do investimento, provendo uma perspectiva dinâmica à avaliação. Esta pesquisa objetiva verificar se, de fato, projetos de TI podem ser avaliados através do emprego de opções reais e sob que condições este uso pode ser feito. Para tanto, foi realizada uma revisão bibliográfica envolvendo características dos investimentos em TI. Em seguida, foram pesquisados elementos tipicamente observados nas avaliações, tais como tipos de projetos, retornos esperados, riscos envolvidos e os métodos de avaliação. Posteriormente, deu-se ênfase ao método de opções reais, destacando os seus principais conceitos e as circunstâncias nas quais seu uso é indicado. Uma pesquisa empírica foi conduzida no setor de indústrias alimentícias, envolvendo as empresas mais relevantes localizadas no estado do Ceará. A metodologia empregada foi eminentemente qualitativa, utilizando questionários para obter alguns dados descritivos e entrevistas a fim de coletar as informações principais da pesquisa. Os executivos responsáveis pela gestão de TI nas empresas participaram da pesquisa, fornecendo dados sobre as características dos projetos e como eles são atualmente avaliados. A pesquisa mostrou uma série de exemplos de projetos analisados nas empresas que incorporavam opções reais. Houve uma predominância de opções de expansão e de postergação nos projetos, ao mesmo tempo em que não houve qualquer indício de opções de abandono ou contração. A pesquisa também evidenciou que, em alguns casos, o método de opções reais poderia ter sido empregado no processo decisório para justificar os investimentos. Apesar de nenhuma das empresas pesquisadas ter aplicado explicitamente o método de opções em seu processo decisório, percebeu-se que os conceitos são usados ainda que de maneira não formal e não mensurável. Isto indica a possibilidade de incorporação do método em casos nos quais os projetos apresentam características de decisão contingencial e geração de oportunidades futuras, ou seja, aqueles de natureza estratégica. A pesquisa concluiu que o uso da abordagem de opções reais, mensurando o valor adicionado gerado pelas opções existentes nos projetos, pode tornar o processo decisório sobre investimentos em TI mais claro e objetivo do que simplesmente usar intuitivamente os conceitos de opções.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.