693 resultados para Procesadores heterogéneos
Resumo:
A deficiência de desidrogenase das acil-CoA de cadeia curta (SCAD) é um erro inato do metabolismo devido a um defeito no último ciclo de β-oxidação, sendo específica para ácidos graxos de cadeia curta (4 a 6 carbonos), resultando no acúmulo de ácidos orgânicos de cadeia curta, principalmente dos ácidos etilmalônico e metilsucínico, formados pela metabolização por rotas secundárias do butiril-CoA acumulado. A deficiência de SCAD manifesta-se principalmente no período neonatal ou durante a infância e até mesmo na idade adulta. Os achados clínico-laboratoriais são heterogêneos, incluindo acidose metabólica, acidose lática, vômitos, atraso no desenvolvimento, convulsões, fraqueza muscular e miopatia crônica. No entanto, o sintoma mais comum apresentado pelos pacientes portadores dessa deficiência é a disfunção neurológica, a qual pode estar relacionada ao acúmulo de ácidos orgânicos de cadeia curta e sua toxicidade ao sistema nervoso central. No presente trabalho nosso objetivo foi investigar o efeito in vitro dos ácidos etilmalônico e metilsucínico sobre algumas atividades enzimáticas fundamentais para o metabolismo energético. Visando contribuir para uma melhor compreensão da fisiopatogenia dessa doença testamos o efeito desses metabólitos sobre a atividade dos complexos da cadeia respiratória e da creatina quinase em córtex cerebral, músculo esquelético e músculo cardíaco de ratos jovens. Verificamos que os ácidos etilmalônico e metilsucínico, na concentração de 1 mM, inibiram significativamente a atividade do complexo I+III da cadeia respiratória em córtex cerebral de ratos, porém não alteraram a atividade dos demais complexos da cadeia respiratória (II, SDH, II+III, III e IV) nesses tecido bem como não alteraram a atividade de todos os complexos da cadeia repiratória em músculo esquelético e músculo cardíaco dos ratos nas concentrações de 1 e 5 mM. Observamos também que o ácido etilmalônico (1 e 2,5 mM) reduziu de forma significativa a atividade total de creatina quinase em córtex cerebral de ratos, mas não alterou essa atividade nos músculos esquelético e cardíaco. Por outro lado o ácido metilsucínico não modificou a atividade total da creatina quinase em nenhum dos três tecidos estudados, córtex cerebral, músculo esquelético e músculo cardíaco de ratos. Testamos então o efeito do ácido etilmalônico sobre a atividade da creatina quinase nas frações mitocondrial e citosólica de córtex cerebral, músculo cardíaco e músculo esquelético de ratos. O ácido (1 e 2,5 mM) inibiu significativamente a atividade da creatina quinase apenas na fração mitocondrial de córtex cerebral. Demostramos também que o antioxidante glutationa (1 mM) preveniu o efeito inibitório do ácido etilmalônico sobre a atividade total da creatina quinase em córtex cerebral. A glutationa (0,5 mM) e o ácido ascórbico (0,5 mM) também preveniram o efeito inibitório do ácido etilmalônico sobre a atividade da creatina quinase na fração mitocondrial de córtex cerebral. Por outro lado a adição de L-NAME ou trolox não alterou o efeito inibitório do ácido etilmalônico sobre a atividade da creatina quinase. Esses resultados indicam que o ácido etilmalônico possui um efeito inibitório específico sobre a isoforma mitocondrial da creatina quinase do cérebro, ou seja, sobre a CKmi a, não afetando a isoenzima citosólica cerebral ou as isoenzimas citosólicas e mitocondrial presentes no músculo esquelético e no músculo cardíaco. Além disso, o efeito da glutationa, que atua como um agente redutor de grupos tióis, indica que a ação inibitória do ácido etilmalônico sobre a creatina quinase pode estar relaciona à oxidação de grupos sulfidrila essenciais à atividade da enzima. Já a prevenção do efeito inibitório do ácido etilmalônico causada pelo ácido ascórbico sugere que o ácido pode estar envolvido com a formação dos radicais superóxido e hidroxila, uma vez que este agente antioxidante atua sobre esses radicais livres. Essas observações em seu conjunto indicam que os ácidos etilmalônico e metilsucínico comprometem o metabolismo energético cerebral através da inibição de atividades enzimáticas essenciais para a produção e transporte de energia pela célula. É, portanto, possível que esse possa ser um dos mecanismos envolvidos com o dano cerebral que ocorre nos pacientes afetados por deficiência de SCAD.
Resumo:
A integração de aplicações heterogêneas é uma tarefa constante entre empresas do mundo moderno. A grande quantidade de fornecedores de software, aliada à extensa variedade de técnicas e linguagens computacionais utilizadas, fazem desta integração uma tarefa trabalhosa e cara para as organizações. As alternativas existentes para a integração de sistemas de diferentes fornecedores podem variar, desde acesso compartilhado a uma base de dados comum, uso de replicadores de dados entre bases de dados distintas, troca de mensagens entre aplicações, ou o uso de programas exportadores/importadores, gerando arquivos em um formato previamente protocolado entre os desenvolvedores dos softwares envolvidos. Este trabalho visa propor uma alternativa para a integração de sistemas heterogêneos, fazendo uso da tecnologia XML para representar os dados que são trocados entre os aplicativos. Para tanto, sugere um framework a ser utilizado no planejamento da arquitetura dos softwares. O objetivo principal da adoção de um framework é a utilização de uma metodologia previamente desenvolvida e certificada, economizando tempo de análise para a solução de um problema. O framework proposto subtrai dos desenvolvedores a necessidade de alteração do código fonte dos seus programas cada vez que a integração com um novo fornecedor de software se faz necessária, ou que há alteração no formato dos dados trocados entre os aplicativos. Este efeito é conseguido através da utilização de XSLT para a conversão de formatos de documentos XML trocados pelos softwares. Tal conversão é realizada por um processador XSLT externo aos programas envolvidos. Para simplificar o processo, foi desenvolvido o protótipo de uma ferramenta para a geração de templates XSLT. Templates são elementos da especificação XSLT capazes de realizar a transformação entre estruturas representadas em XML. O gerador de templates XSLT é uma ferramenta gráfica capaz de converter mapeamentos realizados entre estruturas XML em templates XSLT, podendo aplicar as transformações geradas a documentos XML, com a finalidade de teste ou transformação.
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
XML (eXtensibile Markup Language) é um padrão atual para representação e intercâmbio dos semi-estruturados na Web. Dados semi-estruturados são dados não convencionais cujas instâncias de uma mesma fonte de dados podem ter representações altamente heterogêneas. Em função isto, um esquema para estes dados tende a ser extenso para suportar todas as alternativas de representação que um dado pode assumir. Parte do grande volume de dados disponível hoje na Web é composto por fontes de dados heterogêneas XML sobre diversos domínios do conhecimento. Para realizar o acesso a estas fontes, aplicações na Web necessitam de um mecanismo de integração de dados. O objetivo principal deste mecanismo é disponibilizar um esquema de dados global representativo dos diversos esquemas XML das fontes de dados. Com base neste esquema global, consultas são formuladas, traduzidas para consultas sobre os esquemas XML, executadas nas fontes de dados e os resultados retornados à aplicação. Esta tese apresenta uma abordagem para a integração semântica de esquemas XML relativos a um domínio de aplicação chamada BInXS. BInXS adota um processo bottom-up de integração, no qual o esquema global é definido para um conjunto de esquemas XML representadas atrtavés de DTDs (Document Type Definitions). A vantagem do processo bottom-up é que todas as informações dos esquemas XML são consideradas no esquema global. Desta forma, toda a informação presente nas fontes de dados pode ser consultada. O processo de integração de BInXS é baseado em um conjunto de regras e algoritmos que realizam a cnversão de cada DTD para um esquema canônico conceitual e a posterior integração semântica propriamente dita destes esquemas canônicos. O processo é semi-automático pois considera uma eventual intervenção de um usuário especialista no domínio para validar ou confirmar alternativas de resultado produzidas automaticamente. Comparada com trabalhos relacionados, BInXS apresenta as seguintes contribuições: (i) uma representação canônica conceitual para esquemas XML que é o resultado de uma anállise detalhada do modelo XML; (ii) um étodo de unificação que lida com as particularidades da integração de dados semi-estruturados e; (iii) uma estratégia de mapeamento baseada em expressões de consulta XPath que possibilita uma tradução simples de consultas globais para consultas a serem executadas nas fontes de dados XML.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
Resumo:
Esta dissertação de mestrado calcula produtividade do trabalho para 42 setores da economia brasileira no período 1990/96 e a produtividade total dos fatores(PTF) para 29 setores da economia para período 1990/95, utilizando-se dados da Matriz Insumo-Produto brasileira séries de valor bruto da produção valor agregado. Posteriormente, papel da abertura comercial na variação da produtividade industrial brasileira investigado. Para isto, utiliza-se um painel com 29 setores industriais com dados de produtividade, tanto com uso da produtividade do trabalho como da PTF, e variáveis de abertura. Os resultados mostram que produtividade agregada da economia aumentou tanto em termos de produtividade do trabalho como de PTF. Entretanto, estes ganhos são bastante heterogêneos beneficiam somente alguns setores. hipótese de que abertura comercial influencia positivamente produtividade não pode ser descartada, com efeito três das quatro variáveis de abertura utilizadas mostram-se significativas.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
Neste trabalho foi estudada a combinação dos catalisadores Cp2ZrCl2 e (nBuCp)2ZrCl2 em reações de (co)polimerização com eteno-1-hexeno, em presença de metiluminoxano. Os zirconocenos foram combinados em três razões molares 1:1, 1:3 e 3:1. Nestas razões foram estudados 3 sistemas homogêneos e 6 heterogêneos. Os catalisadores foram imobilizados sobre a sílica em diferente ordem de adição sobre o suporte. A ordem de imobilização afeta o teor de metal fixado, tendo sido verificado um maior teor de metal e maior atividade nos sistemas onde o Cp2ZrCl2 foi imobilizado primeiro. Foi observado, pela modelagem molecular usando o método EHMO, que o Cp2ZrCl2 apresenta maior afinidade pelo plano AIS da sílica e que o (nBuCp)2ZrCl2 tem bem menor afinidade por este plano, no qual são gerados os sítios ativos. A temperatura, pressão, teor de comonômero e razão Al/Zr influenciam a atividade das reações de polimerização. Os (co)polímeros obtidos foram avaliados quanto à massa molar média, polidispersão, temperatura de fusão, cristalinidade e teor de comonômero. Os sistemas híbridos suportados produziram copolímeros com similar temperatura de fusão, em relação aos homogêneos, mas com menor cristalinidade. A incorporação do comonômero na cadeia polimérica levou à diminuição da massa molar média, temperatura de fusão e cristalinidade, nos copolímeros obtidos a partir da variação do teor de comonômero e da razão Al/Zr. Os (co)polímeros gerados pelos sistemas estudados não apresentaram bimodalidade na distribuição de massa molar. Nas razões molares 1:3 e 3:1, com os sistemas homogêneos, foram obtidos copolímeros com larga distribuição de massa molar. A modelagem molecular dos resultados obtidos, em reações de homopolimerização, permitiu sugerir a existência de vários sítios ativos, gerados pela influência de um catalisador sobre o outro, quando utilizados sistemas híbridos e também pela influência da presença do suporte.
Resumo:
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
Resumo:
Comprehension of the processes of formation of new organizational fields is the main objective that stimulated the theoretical reflection and empirical research that I present in this paper. My intention here is to uphold the potential for the application of seemingly dichotomous perspectives in terms of the objectivity/subjectivity dimension in the comprehension of the objective in question. The contribution of Foucault, with his concept of discourse, is linked to the proposal of critical constructivism represented by Latour and studies of science and technology. Juxtaposing these perspectives, I examined the dynamics of the biotechnological field on the basis of the dialectic of movements of demarcation/circularity, which is basically a simultaneous movement of (dis)construction of the boundaries of a field. The dialectic of demarcation/circularity is made up of the set of relations established between heterogeneous elements ¿ institutions, economic and social processes, behavioral patterns, systems of norms, techniques, types of classification, forms of characterization, in other words it finds ways of emerging in the course of discursive formations. This theoretical proposal ¿ which incorporates an overlooked dimension in institutional analysis, especially in organization studies (power) ¿ has the advantage of contributing to enhancing comprehension of the dynamics of institutionalization. By proposing that the institutional processes arise within discursive fields, the argument put forward is that such processes contribute to the productivity of the power relations in these fields. In empirical terms, I conducted a descriptive and exploratory research directed at the biotechnology sector. The research was based on a historical perspective, since the analysis spans the period from the origins of genetic science (beginning of the 20th century) through to recent developments in biotechnology in the USA (beginning of the 21st century). The USA was chosen as the locus of research, principally due to the fact that structuring of the field of biotechnology originated in that country, subsequently spreading to other countries around the world. Starting from this theoretical and methodological framework, three discursive formations are highlighted: organization, information and network. Each of the discursive formations is characterized by a dominant set of discourses that prepare the ground for the appearance and (trans)formation of the focus-objects under analysis. In this process, organizations appear in at least two ways: as boundary-organizations ¿ which are important for understanding the movement of the approximation of different discursive domains ¿ and as new organizations, which accompany the (trans)formation of new fields, whereby prevailing discourses materialize at a given historical moment and contribute to breathe life into new discourses, which in turn spark off new power relations. Among the conclusions of this work, I would highlight the following: questioning the 'organizational' dimension of the fields; the relationship revealed not only between the discourses and the institutionalized practices, but also with the process of construction of legitimacy; and the redefinition of the concept of organizations, based on new conceptions relating to the limits of the topic, the objectivity/subjectivity, and space/time dichotomy.
Resumo:
Over the past few decades, the phenomenon of competitiveness, and the underlying competitive advantage thereof, has been analyzed in diverse ways, in terms of its sources (external and internal environment) and competitive management strategies, as well as different scopes (nations, economic sectors and organizations) and fields of study (economy and organizational theory). Moreover, competitiveness is a complex phenomenon and, thus, reflected in the many methods and approaches which some frameworks have developed throughout the period to try to examine it in the tourism sector as well as other industries. In this research a framework for destinations is presented on the basis of dynamic capabilities. This is an important contribution to the research, since previous studies for the tourism sector have not approached this relevant aspect of the competitive development of tourist destinations, i.e. based on the capabilities of innovation, transformation, creation and research presents a competitive evaluation of the dynamic capabilities of tourist destinations, on the basis of 79 activities, distributed in eight , this work presents an empirical application of the framework in a sample of twenty Brazilian cities, considered, by the Brazilian Tourism Minister, as indicative tourist destinations for regional development. The results obtained from this evaluation were submitted to tests of statistical reliability and have demonstrated that the destinations possess heterogeneous levels of capabilities between themselves (different levels developed in the categories between the cities) and inside each destination (developed levels of capability between the categories of the destination). In other words: heterogeneity is not only between category to category.
Resumo:
XML has become an important medium for data exchange, and is frequently used as an interface to - i.e. a view of - a relational database. Although lots of work have been done on querying relational databases through XML views, the problem of updating relational databases through XML views has not received much attention. In this work, we give the rst steps towards solving this problem. Using query trees to capture the notions of selection, projection, nesting, grouping, and heterogeneous sets found throughout most XML query languages, we show how XML views expressed using query trees can be mapped to a set of corresponding relational views. Thus, we transform the problem of updating relational databases through XML views into a classical problem of updating relational databases through relational views. We then show how updates on the XML view are mapped to updates on the corresponding relational views. Existing work on updating relational views can then be leveraged to determine whether or not the relational views are updatable with respect to the relational updates, and if so, to translate the updates to the underlying relational database. Since query trees are a formal characterization of view de nition queries, they are not well suited for end-users. We then investigate how a subset of XQuery can be used as a top level language, and show how query trees can be used as an intermediate representation of view de nitions expressed in this subset.
Resumo:
Esta tese avalia o comportamento do mercado de imóveis na Grande São Paulo a partir dos avanços da Nova Economia Urbana. No primeiro capítulo apresentam-se o modelo teórico que serve de base para a análise. Em seguida apresenta-se o banco de dados desenvolvido pelo autor a partir de dados da Embraesp. Este banco de dados será utilizado no terceiro e último capítulo para realizar uma análise da demanda e oferta no mercado de novos imóveis em São Paulo