895 resultados para Mapeamento de preferências
Resumo:
XML (eXtensibile Markup Language) é um padrão atual para representação e intercâmbio dos semi-estruturados na Web. Dados semi-estruturados são dados não convencionais cujas instâncias de uma mesma fonte de dados podem ter representações altamente heterogêneas. Em função isto, um esquema para estes dados tende a ser extenso para suportar todas as alternativas de representação que um dado pode assumir. Parte do grande volume de dados disponível hoje na Web é composto por fontes de dados heterogêneas XML sobre diversos domínios do conhecimento. Para realizar o acesso a estas fontes, aplicações na Web necessitam de um mecanismo de integração de dados. O objetivo principal deste mecanismo é disponibilizar um esquema de dados global representativo dos diversos esquemas XML das fontes de dados. Com base neste esquema global, consultas são formuladas, traduzidas para consultas sobre os esquemas XML, executadas nas fontes de dados e os resultados retornados à aplicação. Esta tese apresenta uma abordagem para a integração semântica de esquemas XML relativos a um domínio de aplicação chamada BInXS. BInXS adota um processo bottom-up de integração, no qual o esquema global é definido para um conjunto de esquemas XML representadas atrtavés de DTDs (Document Type Definitions). A vantagem do processo bottom-up é que todas as informações dos esquemas XML são consideradas no esquema global. Desta forma, toda a informação presente nas fontes de dados pode ser consultada. O processo de integração de BInXS é baseado em um conjunto de regras e algoritmos que realizam a cnversão de cada DTD para um esquema canônico conceitual e a posterior integração semântica propriamente dita destes esquemas canônicos. O processo é semi-automático pois considera uma eventual intervenção de um usuário especialista no domínio para validar ou confirmar alternativas de resultado produzidas automaticamente. Comparada com trabalhos relacionados, BInXS apresenta as seguintes contribuições: (i) uma representação canônica conceitual para esquemas XML que é o resultado de uma anállise detalhada do modelo XML; (ii) um étodo de unificação que lida com as particularidades da integração de dados semi-estruturados e; (iii) uma estratégia de mapeamento baseada em expressões de consulta XPath que possibilita uma tradução simples de consultas globais para consultas a serem executadas nas fontes de dados XML.
Resumo:
Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.
Resumo:
O presente trabalho teve por objetivo avaliar alguns aspectos relacionados à zoogeografia e ecologia dos ostracodes da plataforma interna norte do Rio de Janeiro, próximo à cidade de Cabo Frio. O material de estudo resultou da análise de 43 amostras sedimentológicas coletadas durante a expedição GEOCOSTA RIO II. Este estudo permitiu o reconhecimento de 16 famílias, 49 gêneros, 66 espécies e dois gêneros que permaneceram em nomenclatura indeterminada. A descrição de uma nova espécie, Actinocythereis brasiliensis sp. n., também foi realizada no âmbito do presente trabalho. As famílias mais representativas quanto à abundância e o número de espécies foram Thaerocytheridae e Cytheruridae, respectivamente. A espécie mais constante na área foi Caudites ohmerti e, dentre as com maior dominância estão, Caudites ohmerti, Meridionalicythere? dubia, Callistocythere litoralensis, Paracytheridea bulbosa, Urocythereis dimorphica, Henryhowella inflata, Oculocytheropteron delicatum, Xestoleberis umbonata, Henryhowella macrocicatricosa e Brasilicythere reticulispinosa. As preferências sedimentológicas e batimétricas das espécies são também discutidas neste trabalho. É sugerido que se estenda a distribuição zoogeográfica, um pouco mais ao norte, para sete espécies: Cushmanidea variopunctata, Neocytherideis impudicus, Hemingwayella advena, Hemingwayella sp., Urocythereis dimorphica, Munseyella cornuta e Basslerites costata. A grande maioria das espécies são características da plataforma continental sul, sendo que destas o maior percentual pertence à Subprovíncia Sul-Brasileira. De acordo com a fauna registrada, predominantemente de águas frias, chegamos a conclusão que a sua presença se deve, em grande parte, à influência da ressurgência marinha na área de estudo.
Resumo:
O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].
Resumo:
Este trabalho apresenta uma proposta para estruturação do Processo de Desenvolvimento de Produtos. O modelo proposto, baseado em teorias universais de gestão e organização dos processos de desenvolvimento de produtos, é estruturado dentro da realidade e das necessidades de uma empresa metalúrgica de produção de bens de capital sob encomenda. O modelo proposto abrange a gestão do PDP, a sua organização e as ferramentas aplicáveis. No modelo de gestão do PDP, propõe-se o mapeamento do mercado, o estabelecimento das estratégias de mercado e de tecnologia e o planejamento e gerenciamento do portfólio de produtos. Quanto à organização, o modelo prevê a reestruturação do setor de engenharia, de forma a racionalizar e melhorar o desenvolvimento das atividades, além da aplicação de procedimentos de projeto de produto que incorporam os elementos filosóficos de trabalho da engenharia concorrente, o uso de times multifuncionais e a divisão do trabalho em etapas de execução seguidas de etapas de avaliação. Para as diversas etapas previstas no modelo prevê-se o uso de técnicas e ferramentas que irão possibilitar a sistematização e formalização necessárias. É apresentado também o plano de implantação deste modelo, onde os diversos aspectos que envolvem um processo de mudança são analisados.
Resumo:
Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.
Resumo:
Esta dissertação apresenta a implementação das etapas do método DMAIC (Definir, Medir, Analisar, Melhorar e Controlar) no desenvolvimento de um projeto Seis Sigma em uma indústria petroquímica. O objetivo do projeto Seis Sigma foi reduzir a variabilidade de uma característica de qualidade crítica para o cliente e diminuir a dispersão dos tempos de reação entre as bateladas na produção de elastômeros. Neste trabalho são apresentadas as principais técnicas e ferramentas estatísticas utilizadas nas cinco etapas do método DMAIC, tais como brainstorming, mapeamento de processo, diagrama de causa e efeito, matriz da causa e efeito, gráfico de Pareto, FMEA e análise de regressão linear múltipla. A pesquisa desenvolvida de forma participativa, através da interação entre o pesquisador e os especialistas do processo, evidenciou a importância do conhecimento técnico do processo e um bom planejamento para a aquisição dos dados, como pontos importantes para a realização de um projeto de melhoria bem sucedido. O estudo apontou ainda, deficiências no sistema de controle de temperatura do reator, no sistema de medição para a característica de qualidade viscosidade Mooney e no sistema de dosagem dos insumos.
Resumo:
No mundo todo busca-se a melhoria da qualidade das universidades através de avaliações periódicas. Também no Brasil tem sido realizado um grande esforço para a avaliação de universidades, especialmente as públicas. A departamentalização, vigente desde 1968, teve como conseqüência a separação entre o sistema administrativo e o acadêmico, com diferentes instâncias decisórias, diminuindo a integração e a flexibilidade da universidade. Essa situação vai de encontro ao que a sociedade atual está demandando: uma universidade dinâmica, que acompanhe as tendências tecnológicas, com alto nível de qualidade. Nesse contexto é que surge o interesse pela avaliação de departamentos de uma universidade, para verificar se estes, funcionando de uma maneira distinta, apresentam desempenhos similares. Mais especificamente, procura-se, neste trabalho: (1) definir, qualitativamente, os fatores relevantes para uma avaliação quantitativa multicriterial de departamentos acadêmicos de uma universidade; (2) efetuar comparação objetiva, via modelagem matemática, do desempenho dos departamentos; (3) diferenciar departamentos quanto à sua eficiência relativa; e (4) identificar os fatores que fazem departamentos serem mais (ou menos) eficientes. Focaliza-se a Universidade Federal do Rio Grande do Sul (UFRGS), de grande relevância no cenário nacional, com cursos de elevada qualidade, embora nem todos com o mesmo nível de excelência. O estudo emprega uma modelagem matemática, utilizando a técnica denominada Análise Envoltória de Dados (DEA, do inglês “Data Envelopment Analysis”). A aplicação da técnica aos departamentos da UFRGS oferece um mapeamento por eficiência relativa que, em vez de meramente criar uma escala ordinal (ranking), mostra o quanto um departamento é menos eficiente do que outro, em uma escala relacional, indicando, ainda, quais são os fatores que determinam eficiências distintas para os departamentos. Os resultados do estudo permitem: (1) destacar alguns pontos de ineficiência, que podem ser melhorados; (2) identificar características de departamentos mais eficientes, que possam ser repassadas aos menos eficientes, para que estes elevem seu desempenho; e (3) contribuir para a homogeneização da eficiência de todos os departamentos acadêmicos da UFRGS, com o intuito de aperfeiçoar a universidade como um todo.
Resumo:
Esta dissertação estabelece as principais características do comportamento da maioria dos eleitores brasileiros e procura demonstrar que existe uma “razão” que move as escolhas eleitorais. Para tanto, utiliza-se da produção da ciência política brasileira sobre o comportamento eleitoral e de pesquisas realizadas em diversas cidades do interior do Rio Grande do Sul. O principal objetivo deste trabalho é o de compreender como se processam as escolhas eleitorais, tendo em vista que a maioria do eleitorado brasileiro não acredita na política, mantém-se distante dos mecanismos de participação e vota na pessoa do candidato. O pressuposto básico é de que as escolhas eleitorais da maior parte da população, em especial, as das camadas populares, são motivadas por uma cultura política cética e personalista, que tem sua origem e manutenção nos condicionantes históricos-estruturais da política brasileira. As evidências indicam que a maior parte do eleitorado, define o destino do voto de forma sensível e emocional, a partir dos atributos simbólicos dos candidatos e das imagens difusas das competições eleitorais. Nesse contexto, estabelece-se a lógica do comportamento da maioria dos eleitores brasileiros, que pode ser interpretado como emotivo, tendo em vista que as preferências eleitorais tendem a direcionar-se aos candidatos que são mais “conhecidos positivamente”, e que, ao mesmo tempo, desfrutam de uma avaliação positiva de confiança, afinidade e simpatia. Nesses termos é que a imagem de um candidato torna-se elemento-chave da decisão eleitoral. O eleitor emotivo vota no candidato que conhece positivamente e inspira confiança, porque o voto é resultado de uma cultura política personalista e descrente. O eleitor brasileiro vota em quem “conhece”, porque “confia”.
Resumo:
Nós investigamos conceito de âncora nominal de uma economia aberta analisamos comportamento dinâmico de algumas variáveis econômicas importantes tais como inflação desemprego taxa real de câmbio durante processo de desinflação. Utilizando uma versão do Modelo Mundell-Fleming onde inércia introduzida através de expectativas adaptativas nós confrontamos estabilização baseada na taxa de câmbio(âncora cambial) com àquela baseada no controle de algum agregado monetário(âncora monetária). Nós mostramos que embora âncora cambial possua um efeito inicial expansionista sobre nível de atividade econômica, oposto ocorrendo com âncora monetária, recessão necessária para derrubar inflação independe da âncora nominal adotada, concluindo que estratégia anti-inflacionária ótima depende das preferências intertemporais dos policy-makers isto é, de como eles desejam distribuir os custos da estabilização ao longo do tempo de modo maximizar bem-estar social.
Resumo:
O objetivo deste trabalho é testar diversas especificações de modelos de ciclos reais de negócios em pequena economia aberta e avaliar em que medida eles conseguem reproduzir as características dos ciclos econômicos brasileiros. Um problema recorrente nos modelos de pequena economia aberta é que sua dinâmica de equilíbrio depende de condições iniciais e apresenta características não estacionárias. Neste trabalho estão presentes três diferentes especificações de modelos, que diferem na forma como a estacionariedade é induzida, são eles: 1) modelo com taxa de desconto endógena; 2) modelo com prêmio de risco elástico à dívida; 3) modelo com mercados completos. Também é testada a sensibilidade dos modelos a duas especificações de preferências - como em Greenwood et alli(1988) e como em Hansen(1985). Os modelos conseguiram replicar características importantes dos ciclos internacionais - como a correlação negativa entre a balança comercial e o produto, e a característica pró-cíclica das outras variáveis. Apenas o modelo com prêmio de risco conseguiu reproduzir a alta volatilidade do consumo brasileiro, sendo este resultado sensível à especificação de preferências. O choque de juros mostrou-se pouco importante para a dinâmica de todos os modelos e o custo de ajustamento foi essencial para a obtenção dos principais resultados.
Resumo:
Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.
Resumo:
Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.