10 resultados para Open access renewable resource

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apresentamos neste trabalho um estudo sobre a processualidade das relações da escola pública com a comunidade, enfocando os agenciamentos que operam na constituição de diferentes modos de relação em uma instituição situada na região metropolitana de Porto Alegre. Sob os referenciais de Gilles Deleuze e Félix Guattari, procuramos pensar as relações como acontecimentos, efeitos de sentidos, agenciados coletivamente por instâncias heterogêneas que compõem o real social. Nosso problema se inscreve no âmbito do discurso e da subjetividade, partindo da hipótese de que é possível pensar as relações nas instituições, para além das representações individuais, para além das relações interpessoais, para além do pressuposto da reprodução social. Procuramos articular conhecimentos da Análise de Discurso na vertente Francesa com as discussões empreendidas por Deleuze e Guattari sobre uma Filosofia da Linguagem e uma Teoria da Subjetividade. Utilizamos o recurso cartográfico proposto por estes autores, trabalhando com os discursos produzidos no encontro da escola com a comunidade. Para tal acompanhamos as atividades de uma escola durante um ano, realizando entrevistas, observações, leitura de documentos, participando de reuniões e encontros festivos. Encontramos em nosso estudo algumas dobras das relações da escola com a comunidade, dobras que nos falam da sua complexidade, a qual temos deixado escapar, ao entendermos as relações, marcados pelo modo-indivíduo de subjetivação, que ganhou força desde a modernidade. Nossa cartografia registrou várias dobras, algumas um pouco mais intensas, como a dobra burocrática, a qual impede que outras forças possam ser potencializadas na escola. Procuramos aqui construir um modo de pensar as relações nas instituições, um pensar nas dobras, para regar um pouco o campo da Análise Institucional no âmbito da Psicologia e da Educação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho foi estruturado a partir de um estudo qualitativo baseado na experiência de planejamento estratégico em uma universidade. Teve por objetivo identificar as variáveis que intervêm na implementação daquele processo com a utilização da metodologia de desdobramento de diretrizes. O estudo qualitativo realizado adotou procedimentos que incluíram pesquisa individual com representantes dos segmentos da universidade. Os entrevistados representam os responsáveis pelas finalidades de planejamento, de supervisão geral e setorial, de execução do ensino, bem como de apoio técnico e assessoria. Os principais procedimentos adotados no desenvolvimento da pesquisa foram descrição, análise e interpretação. O planejamento estratégico, usualmente descrito como processo integrante da gestão empresarial, é apresentado como um recurso que capacita a instituição de ensino superior a atuar com eficiência e eficácia e a reagir com rapidez às demandas do seu entorno social. O desdobramento das diretrizes é mostrado como uma ferramenta que pode ser aplicada no detalhamento do plano estratégico, assim que as linhas de ação anuais estejam definidas. Resultaram do estudo a confirmação de que professores e funcionários necessitam de incentivo para atuar nesse processo e que fatores como liderança e comprometimento com resultados, esforço para o compartilhamento do propósito comum, motivação dos envolvidos e acompanhamento dos processos são essenciais para a implementação, com sucesso, do plano estratégico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Devido à necessidade de permanecer competitiva e rentável, a indústriada construção civil tem mudado a forma de conduzir seus negócios e adaptado filosofias gerenciais para a suarealidade, como é o casodo Just-in-Time (JIT)e dos Sistemas da Oualidade (por exemplo: TOM e TOC). Dentro deste contexto, encontra-se a aplicação da Teoria das Restrições (TR) no processo de Planejamento e Controle da Produção (PCP) de obras de edificação. A Teoria das Restrições é uma filosofia gerencial fundamentada no conceito de restrição e em como gerenciar as restrições identificadas, fornecendo: (a) um procedimento para os responsáveis pela produção identificarem onde e como concentrar esforços e (b) um processo de melhoria contínua para o sistema produtivo como um todo, buscando sempre o ótimo globalantes do local. O desconhecimento dos possíveis benefícios e dificuldades decorrentes da adaptação e aplicação desta teoria na indústria da construção civil fez com que a aplicação da Teoria das Restrições fosse simulada, usando a técnica STROBOSCOPE (Stateand Resource Based Simulation of Construction Processes), em um empreendimento para analisar os impactos que prazos e custos podem sofrer durante as aplicações em casos reais. Estas simulações mostraram que a Teoria das Restrições e suas técnicas e ferramentas são aplicáveis ao processo de PCP, reduzindo os atrasos e os custos por atraso que um empreendimento pode sofrer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De acordo com a Lei Federal n° 9.433/97, que instituiu a Política e o Sistema Nacional de Gerenciamento dos Recursos Hídricos, o planejamento de recursos hídricos deve ter um enfoque sistêmico, de uso múltiplo das águas e descentralização das decisões, adotando a bacia hidrográfica como unidade de gestão. Dentro deste contexto, de descentralização de decisões e participação de grandes grupos no processo de tomada de decisão sobre a gestão dos recursos hídricos, os procedimentos clássicos de avaliação de alternativas para planejar o uso, controle e proteção das águas tornam-se limitados por sua impossibilidade de incluir outros critérios, além da minimização dos custos ou da maximização dos benefícios, e por não considerarem a subjetividade inerente ao processo de tomada de decisão, que corresponde ao sistema de valores dos atores envolvidos na tomada de decisões. Assim, este trabalho apresenta um Método Multicritério em Apoio à Decisão para o planejamento de recursos hídricos de bacias hidrográficas, que além de incorporar vários critérios na avaliação de alternativas, por adotar uma abordagem construtivista, propicia a participação de todos os atores envolvidos no processo de tomada de decisão. Para testar a aplicabilidade prática do método proposto foi escolhida a bacia hidrográfica do rio dos Sinos, localizada no estado do Rio Grande do Sul, sendo construído um Modelo Multicritério de Avaliação de Alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos. Os resultados do trabalho demonstraram a robustez da proposta que, ao possibilitar a geração e avaliação de alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos, a partir de diversos critérios, e levando em conta o sistema de valores dos decisores, se constituiu em um diferencial capaz de conferir maior legitimidade ao processo de tomada de decisões sobre o planejamento de recursos hídricos de bacias hidrográficas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O tema desta tese é a Gestão do Conhecimento, abordagem em evidência crescente nos meios acadêmicos e empresariais, espaços em que o conhecimento começa a ser visto como recurso substituto do trabalho. A discussão da ruptura entre os conceitos de conhecimento e trabalho vigora desde a antiguidade até os dias de hoje. E foi esse argumento de ruptura que impulsionou a definição do foco desta pesquisa: a discussão das relações entre conhecimento e trabalho, e a forma como esses conceitos interagem no contexto das organizações. A pesquisa de campo foi realizada em uma instituição financeira brasileira de grande porte, o Banco do Brasil, diante do contexto do sistema financeiro. Buscou-se construir um quadro referencialteórico das relações entre conhecimento e trabalho nessa empresa. Para o desenvolvimento da tese, foi utilizado um referencial teórico multidisciplinar baseado nas interfaces da Gestão do Conhecimento com a Filosofia (concepções de vita contemplativa e vita activa) a Sociologia (o conhecimento como construção social e histórica) e a Psicologia (o conhecimento associado ao desenvolvimento humano). Para a realização da pesquisa, optou-se por um método de orientação pós-moderna, que se admite o uso das técnicas científicas mais recentes, sem excluir o uso de abordagens tradicionais. Entende-se que a visão pós-moderna transcende a modernidade, sem excluí-la. Para a coleta de informações, foi utilizada uma abordagem multimétodos, que abrangeu a aplicação das seguintes técnicas: questionários fechados, entrevistas em profundidade, observação participante e análise documental. Os questionários foram aplicados, exclusivamente, junto a profissionais do Banco do Brasil. As entrevistas em profundidade foram realizadas com profissionais do Banco do Brasil e de outros bancos públicos e privados (das cinco regiões do país) e também com representantes do Sindicato dos Bancários de Brasília e com um técnico do Instituto de Pesquisa Econômica Aplicada - IPEA. Como resultados da pesquisa, foram identificadas seis categorias analíticas (Concepção de Gestão do Conhecimento, Ambiente de Trabalho, Compartilhamento de Conhecimento, Aprendizagem, Identidade Profissional e Identidade Corporativa) as quais são necessárias para a compreensão das relações entre conhecimento e trabalho no âmbito da instituição finaceira pesquisada. A partir desses resultados, foi construído um modelo teórico da Gestão do Conhecimento.