939 resultados para Bancos de dados


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente estudo investiga como os gerentes de supermercados no Norte do Estado do Rio Grande do Sul usam as informações de mercado para apoiar suas decisões de marketing. Os dados foram coletados a partir de entrevistas pessoais através de um questionário aplicado em uma amostra de quarenta gerentes correspondendo a 71,4% da população estudada. Este estudo oferece uma estrutura de variáveis que contribuem para a análise dos processos de coleta, utilização e difusão das informações de mercado. Verifica também a percepção do decisor quanto à importância das informações de mercado e ao uso dos instrumentos para sua coleta. Geralmente, os gerentes coletam e utilizam muitas informações com o objetivo de apoiar suas decisões diárias. Os resultados revelam que eles coletam com bastante freqüência informações a partir de fontes externas, tais como comentários informais, conversas informais, jornais, revistas especializadas, telejornais e consumidores. E, ainda, utilizam bancos de dados internos e funcionários como as principais fontes internas de informação. Todavia, muitas fontes relevantes não são utilizadas, caracterizando um processo em que os gerentes coletam poucas informações de mercado e, quando o fazem, tendem a utilizar fontes informais de acesso. A utilização das informações é um dos processos de maior atenção dos gerentes, seja do uso interno ou externo. As informações externas mais utilizadas referem-se aos concorrentes e aos setores econômico, político, tecnológico e sociocultural. Por outro lado, percebe-se a baixa utilização de informações dos consumidores, revelando uma posição despreocupante em relação às tendências de customização de clientes. Por sua vez, as informações internas possuem uma elevada freqüência de uso, uma vez que são de fácil acesso e disponibilidade. Um aspecto evidenciado é que os gerentes utilizam muita informação conceitual e muito pouca informação instrumental, o que revela um elevado uso indireto das mesmas em ações relacionadas à estratégia e, em contrapartida, muito poucas são utilizadas diretamente para decisões de maior escopo. Os gerentes disseminam muito pouco as informações de mercado, tanto interna quanto externamente, embora suas percepções quanto à importância e necessidade dessas informações sejam elevadas. Evidencia-se, portanto, que os gerentes usam informações de maneira empírica, dispersa e assistemática, sem instrumentos formais de coleta, fundamentadas em relações informais, pessoais e impessoais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A maioria das empresas interage com seus clientes através de computadores. Com o passar do tempo está armazenado nos computadores um histórico da atividade da empresa que pode ser explorado para a melhoria do processo de tomada de decisões. Ferramentas de descoberta de conhecimento em bancos de dados exploram este histórico a fim de extrair vários tipos de informação. Um dos tipos de informação que pode ser extraída destes tipos de bancos de dados são as regras de associação que consistem em relacionamentos ou dependências importantes entre itens tal que a presença de alguns itens em uma transação irá implicar a presença de outros itens na mesma transação. Neste trabalho são aplicadas técnicas de descoberta de conhecimento na área do comércio varejista de confecção. Foram detectadas algumas peculiaridades dos bancos de dados desta área sendo proposto um novo algoritmo para melhorar o desempenho da tarefa de extração de regras de associação. Para a validação dos resultados apresentados pelo algoritmo foi desenvolvido o protótipo de uma ferramenta para extração de regras de associação. Foram realizados experimentos com bancos de dados reais de uma empresa da área de comércio varejista de confecção para análise de desempenho do algoritmo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A presente dissertação tem por objetivo estudar como o rádio foi usado, entre 1930 e 1945, pelo governo Vargas e o diálogo entre o poder e seus profissionais. Nesta fase, o meio radiofônico foi regulamentado e recebeu incentivos do poder público para seu desenvolvimento técnico, comercial e profissional. Este trabalho busca entender como a programação era desenvolvida pelos radialistas e se estes sofriam interferência governamental. A pesquisa procura ainda verificar de que maneira seus profissionais interagiam como movimentos sociais e políticos ocorridos no período e como esses fatos foram tratados por este veículo. O estudo foi fundamentado em pesquisa bibliográfica (livros, revistas, jornais, sites e bancos de dados) e em entrevistas com profissionais que trabalharam em rádio no período citado. Conclui-se que a participação governamental se deu através da aquisição de emissoras e produção de programas estatais e o controle rigoroso das estações privadas através de sua máquina de propaganda e da censura.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os Juizados Especiais foram criados para proporcionar acesso à justiça, de forma simples e rápida, sem custos, objetivando resolver conflitos de menor complexidade, de modo informal e preferencialmente através da conciliação. Decorridas mais de duas décadas desde a sua implantação, no Rio Grande do Sul, o sistema não vêm tendo a devida atenção, quer de parte dos operadores, quer de parte do próprio Judiciário. O risco de contaminação das práticas do sistema tradicional de justiça, burocrático e formalista e, por isso mesmo, moroso, exige medidas de administração judiciária que evitem o desvirtuamento dos princípios com base nos quais os Juizados Especiais foram concebidos. A correta atuação dos Juízes Presidentes dos Juizados Especiais, a orientação aos servidores que nele atuam, a prévia preparação dos juízes leigos e conciliadores para o exercício das relevantes funções que lhes são atribuídas, o comprometimento dos integrantes das Turmas Recursais com a unidade do sistema e, fundamentalmente, gestão deste pelo órgão estadual responsável pela coordenação e supervisão dos Juizados Especiais, são medidas que, juntamente com os necessários investimentos em informatização, incentivo à inovação e ao uso das novas tecnologias, padronização de procedimentos, aperfeiçoamento dos bancos de dados e sistema estatístico, podem promover melhorias significativas no seu desempenho.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este relatório apresenta os primeiros resultados semestrais de pesquisa junto a um grupo de cientistas políticos focando a política monetária (A construção de autoridade monetária e democracia: A experiência brasileira no contexto da integração econômica em escala global, FAPESP Processo no 2001/05568-8). Durante este primeiro semestre o trabalho de pesquisa consistiu em uma revisão geral da bibliografia sobre a política monetária e instituições na ciência política e na economia, como também a criação de novos bancos de dados sobre credito, moeda, e instituições financeiras no Brasil de 1860 a 2002 e, finalmente, o desenvolvimento e aplicação de uma pesquisa de opinião à uma amostra de 75 Deputados Federais brasileiros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This Research Report presents the Environmental Management Information System, which has been planned for CEAMA - Center for Management and Environment. The System consists in the framework of data bases in the environment field, and the logic for information treatment. It has been developed to support current and future requirements of Center for Management and Environment in Escola de Administração de Empresas de São Paulo, Fundação Getulio Vargas (EAESP/FGV). The System was developed for Windows/Access environment and consists of a Main Data Base and a Thematic Data Base. The Main Data Base can store libraries, NGOs, Environmental Impact Reports, technical reports, companies and many other items. The Thematic one can contain several subjects related with environment, specifying the place or access form in which the data can be obtained. The Report also describes several environmental information systems, as a result of a survey that has been done as a part of the research project.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação examina as capacidades tecnológicas (sistema técnico-organizacional, molécula e medicamento) disponibilizadas em alianças estratégicas pela indústria farmacêutica multinacional, assim como as principais implicações das alianças estratégicas para a indústria farmacêutica em termos de configuração de suas capacidades tecnológicas . Essas questões são examinadas à base de evidências empíricas secundárias sobre alianças estratégicas em uma amostra de 25 companhias multinacionais da indústria farmacêutica, pertencentes a três grupos: companhia farmacêutica de grande porte (big pharma); companhia biofarmacêutica de grande porte (biofarma) e companhia pequena de pesquisa . A literatura relacionada oferece uma grande quantidade de estudos sobre alianças estratégicas e capacidades tecnológicas na indústria farmacêutica multinacional. Porém, o tema das implicações de tais alianças estratégicas para mudanças na configuração de capacidades tecnológicas ainda carece de mais fundamentação empírica, pela perspectiva de gestão de empresa e, mais precisamente, pela perspectiva de estratégia empresarial baseada em competências dinâmicas. Essa dissertação baseia-se em extensiva e sistemática coleta de evidências empíricas relativas às alianças estratégicas implementadas por 25 companhias da indústria farmacêutica e, publicadas durante o período de 1993 a 2003. Tais evidências empíricas foram coletadas a partir de três bancos de dados: Business & Industry; Galé e Dialog . Com relação aos resultados, foi encontrado que: Em termos de participações com capacidades tecnológicas ingressantes em alianças estratégicas: (i) as 'big pharmas' ingressaram com 11 % das 169 capacidades tecnológicas; (ii) as biofarmas ingressaram com 44% das 143 capacidades tecnológicas; (iii) as companhias pequenas de pesquisa ingressaram com 72% das 95 capacidades tecnológicas . 2 Em termos de implicações das alianças estratégicas para a mudança na configuração de capacidades tecnológicas que ingressaram em alianças estratégicas, foi encontrado que: (i) as 'big pharmas' aumentaram a proporção em moléculas (16% para 55%); (ii) as biofarmas aumentaram a participação em moléculas (22% para 32%) e sistema técnico-organizacional para pesquisa de molécula (49% para 55%); (iii) as companhias pequenas de pesquisa inseriram-se a uma nova atividade (comercialização de medicamento no mercado farmacêutico) a partir do aumento da participação em medicamentos (3% para 29%). Adicionalmente, atualizaram sistemas técnico-organizacionais para pesquisa de molécula . As evidências sugerem que o critério de escolha por companhia parceira e por mecanismo de aliança estratégica foi condicionado aos objetivos e às necessidades de cada grupo de companhia da indústria farmacêutica. Por fim, enquanto as companhias integradas, 'big pharmas' e biofarmas, principalmente, as primeiras, têm adaptado o modelo de negócio "Fully Integrated Pharmaceutical Company" com a adoção de alianças estratégicas para complementação de capacidades tecnológicas, as companhias pequenas de pesquisa capitalizam as suas capacidades tecnológicas através das alianças estratégicas e ingressam no mercado farmacêutico com a comercialização de medicamentos adquiridos por meio de alianças estratégicas. Portanto, as evidências sugerem que a busca por complementação de base de conhecimento para competir no mercado globalizado, tem implicado ainda que, informalmente, uma alteração na organização das atividades tecnológicas inovadoras, especialmente, em termos de produtos (medicamentos) .

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This dissertation studies the innovative technological capabilities available in the merger and acquisitions processes and the relationship between these processes with the technological capabilities accumulation to get convergence of technology and services. This study was examined in fourteen companies of the telecommunications industry during 2002 to 2007. Starting on 1990 there were from one end a profusion of studies on the technological capabilities as source of competitive advantages; from another end there are studies on merger and acquisitions with the objective to evaluate the motivations derived from technological factors and stimulation to the competition and the opening of the market. However few of the empirical studies of long stated period that examine the correlation of these events in the industry of telecommunications under the optics of the technological qualification in the level of the companies and for the strategic perspective of enterprise based on the dynamics abilities. An analytical framework already available in the literature was used to describe the contribution of the merger and acquisitions processes for the accumulation of innovative technological capabilities in the studied companies. However the framework was adapted specifically for the industry of Telecommunications. This dissertation also studies the importance of the strategic merger and acquisitions as organizational form in the complementation of technological capability for external sources. Such empirical evidences had been collected from information and data bases published for the own companies who had been examined in this dissertation. Regarding the results, it was found that: 1. In terms of participation with ingress technological capabilities in strategic merger and acquisitions the equipment manufacturers had entered with 71% to 55 of the technological capabilities and the service operator company had entered with 61% to 71 technological capabilities. 2. In terms of implications of the merger and acquisitions for the configuration of resultant technologic capabilities, it was found that the equipment manufacturers had increased 31% the ratio of convergence of technology and the operators of services had increased 4% the ratio for the change in the organizational structure. 3. Regarding the accumulation technological capability to obtain convergence of technology and services was verified the increase these technological capabilities after the merger and acquisitions process in the companies studied. Considering the limitation of this study, the evidences found in this dissertation suggest that the companies use the processes of strategic merger and acquisitions to search for external complementation of their knowledge base to compete in the globalization market. The result demonstrates that this movement has implied in an alteration and accumulation of capability from organization on innovative technological activities regarding the convergence of technology and services.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abordagens clássicas de linguagens de consultas para bancos de dados possuem certas restrições ao serem usadas, diretamente, por aplicações que acessam dados cujo conteúdo não é completamente conhecido pelo usuário. Essas restrições geram um cenário onde argumentos de consultas, especificados com operadores boleanos, podem retornar resultados vazios. Desse modo, o usuário é forçado a refazer suas consultas até que os argumentos usados estejam idênticos aos dados armazenados no banco de dados. Em bases XML, este problema é reforçado pela heterogeneidade das formas em que a informação encontra-se armazenada em diferentes lugares. Como solução, uma alternativa seria o uso de funções de similaridade na substituição de operadores boleanos, a fim de que o usuário obtenha resultados aproximados para a consulta especificada. Neste trabalho é apresentada uma proposta para suporte a argumentos de consulta vagos através da extensão da linguagem XPath. Para isso, são utilizadas expressões XPath que utilizam novas funções, as quais são, diretamente, adicionadas ao processador da linguagem de consulta. Além disso, é apresentada uma breve descrição das métricas de similaridade utilizadas para a criação das funções. As funções que foram adicionadas a um processador XPath possuem uma ligação muito estreita com as métricas utilizadas. Como as métricas, as funções trabalham com valores simples (elementos atômicos) e compostos (elementos complexos). As funções que trabalham com elementos atômicos podem ser classificadas tanto pelo tipo de dado que será analisado, como pelo tipo de análise que será feita. As funções para elementos complexos comparam conjuntos de elementos atômicos de acordo com a forma do agrupamento (conjunto, lista ou tupla).