636 resultados para ARQUITETURAS PARALELAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram estudadas as variações sazonais do material orgânico e inorgânico transportado pelo efluente que deixa o Sistema Hidrológico do Taim via comportas de drenagem. O Sistema Hidrológico do Taim, localizado a sudeste do estado do Rio Grande do Sul, Brasil, compreende um complexo de banhados e lagoas que trocam massas de água entre si e com sistemas lacustres adjacentes (Lagoa Mirim). Uma das principais características de banhados (“wetlands”) são os altos níveis de produção primária, relacionados principalmente a grande quantidade de macrófitas aquáticas presentes nestes ecossistemas, que associados a intensas variações dos níveis e dos fluxos de água, fazem com que estes tenham importância primordial na bacia da qual fazem parte no sentido de reterem ou exportarem biomassa detrítica e nutrientes. Neste sentido, esta dissertação pretende esclarecer sobre a dinâmica dos processos ecológicos ocorrentes em banhados e estabelecer metodologias que permitam uma melhor gestão dos recursos hídricos destes ecossistemas. Mais especificamente pretende definir e quantificar os padrões na exportação de matéria e nutrientes do Sistema Hidrológico do Taim para Lagoa Mirim e obter subsídios para compreender as influências destes banhados marginais em sistemas lacustres contíguos. Uma série de variáveis hidrometeorológicas (Precipitação, Velocidade do Vento e Nível da Coluna D’água) e físico-químico-biológicas (Temperatura, Condutividade, pH, ORP, Carbono Orgânico Total, DQO, Sólidos, Fósforo Total e Clorofila ) foram usadas para descrição do efluente e, ao longo do ano de 2002, duas campanhas paralelas realizaram coletas periódicas da água que deixa o banhado via as comportas drenagem situadas a norte do sistema Os resultados evidenciaram que grande parte do material transportado pelo efluente drenado do Sistema Hidrológico do Taim se encontra na forma dissolvida, além deste mostrar uma variação sazonal determinada principalmente pelos períodos de cheia e estiagem do banhado, que caracterizam o hidroperíodo, e pelo vento, fator constante e decisivo para a dinâmica de ecossistemas costeiros. A concentração de nutrientes na coluna d’água, e conseqüentemente carreada pelo efluente, é baixa, o que pode estar relacionado principalmente à rápida ciclagem e mobilização destes na biomassa vegetal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das grandes questões do federalismo brasileiro é o papel dos estados no campo das políticas públicas. Se por um lado o papel dos estados nas políticas públicas para sistemas de welfare state ainda passa por indefinições e a literatura que discute seu papel na participação da formulação e execução de políticas nas áreas de saúde, educação, assistência social e habitação é bastante restrita, o cenário aparenta ser bastante distinto no que tange às políticas de desenvolvimento econômico, por possuir significativa vantagem frente aos municípios e governo federal. A presente tese busca mostrar que o papel dos estados têm ampliado e se especializado mais em funções relativas à infraestrutura e ao desenvolvimento regional. Por meio do trabalho de análise, planejamento e capacidade de articulação com vários atores das agências de desenvolvimento estaduais e secretarias de desenvolvimento econômico, os estados podem visualizar de forma privilegiada suas particularidades e semelhanças nas atividades produtivas, de logística e de necessidades específicas, e assumem uma gama de ações de formulação, execução e implementação de políticas que envolvem articulação com os demais entes da federação, setor privado e sociedade civil e novas arquiteturas socioinstitucionais para a criação, desenvolvimento e manutenção de instrumentos de apoio. Neste ambiente institucional advém o estudo de mecanismos de associativismo territorial, notadamente os Arranjos Produtivos Locais, crescentemente utilizados como instrumentos de desenvolvimento regional pelos estados, com o apoio do governo federal. De natureza associativista e voluntária, os Arranjos Produtivos Locais são instrumentos que podem ser aproveitados e incrementados pelos estados, uma vez que a territorialidade na qual estão inseridos possuem vocação produtiva pré-existente, e intervenções em direção ao incentivo, capacitação e profissionalização são algumas das possibilidades de ação dos estados. A partir de tal premissa que o presente trabalho busca analisar o papel que os estados têm assumido na formulação, execução e articulação de políticas públicas para Arranjos Produtivos Locais. Ao assumir que os estados são melhor dotados de estrutura institucional do que os municípios e o governo federal para políticas específicas para Arranjos Produtivos Locais, busca-se compreender como três estados selecionados Pernambuco, Minas Gerais e Rio Grande do Sul têm tratado o tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Embora a assembléia de pequenos mamíferos desempenhe diferentes e importantes papéis na dinâmica das florestas, o conhecimento sobre a riqueza e o papel ecológico desempenhado pelas espécies nas restingas do estado do Rio Grande do Sul é ainda limitado, tendo-se poucas informações ecológicas sobre quem são esses animais nos diferentes fragmentos de florestas e como é sua relação espacial em ambientes de borda. Apesar da relevância, poucos estudos buscaram verificar se a assembléia de pequenos mamíferos em fragmentos florestais é sensível aos efeitos de borda, qual a extensão da borda para esses animais e se ela varia em diferentes estações do ano. No extremo norte da planície costeira do estado do Rio Grande do Sul, em um fragmento de floresta paludosa, denominada “Faxinal”, o presente trabalho foi realizado com o objetivo de investigar qual a riqueza e sucesso de captura de pequenos mamíferos, como é sua relação com a distância da beira do fragmento e se essa relação varia entre as estações do ano. Nos meses amostrais de janeiro (verão), abril (outono) e agosto (inverno) de 2004 foram colocadas armadilhas de arame de dois tamanhos nos estratos terrestre e arbustivo, em um gradeado com seis transecções paralelas que cobriram parte de formação florestal (3,17ha) e parte de campestre (0,31ha). A distância dos postos de captura do gradeado à beira mais próxima da floresta foram agrupadas em seis classes (1: 0-30m; 2: 31-70m; 3: 71-100; 4: 101-120; 5: 121-131; 6: 131-160m, no solo e 1: 0-20m; 2: 40-71m; 3: 80-100m; 4: 101-120m; 5: 121-131m; 6: 132-160m, no estrato arbustivo) para verificar se os dados de sucesso de captura das espécies de pequenos mamíferos diferem entre os fatores distância da beira e períodos amostrais (estações do ano). Onze espécies de pequenos mamíferos foram capturadas somente na parte florestada do gradeado (sucesso de captura total de 15,49%), sendo que maior riqueza, número de indivíduos e de capturas foram de roedores e no estrato terrestre. As espécies mais capturadas foram Akodon montensis (154 indivíduos), Oligoryzomys nigripes (34 indivíduos), Brucepattersonius iheringi (19 indivíduos), Oryzomys angouya (12 indivíduos) e Micoureus cf. demerarae (8 indivíduos) e Didelphis albiventris (7 indivíduos). O mês amostral de inverno foi aquele que apresentou maior riqueza, maior sucesso de captura e maior biomassa. As análises demonstraram relação significativa entre o sucesso de captura do conjunto das espécies de pequenos mamíferos capturadas no solo e a distância da beira, cuja relação esteve fortemente associada à estação do ano. A estrutura e/ou composição da assembléia diferiram entre as duas primeiras classes de distância, que por sua vez diferiram das demais. Isso indica que a assembléia de pequenos mamíferos, capturada no solo, é sensível à beira da floresta e que a sensibilidade varia conforme a estação do ano. Por outro lado, quando avaliada individualmente a relação para a espécie dominante Akodon montensis, o sucesso de captura do roedor não evidenciou com nitidez diferença entre as classes de distância, mas houve diferença entre os períodos amostrais, sendo o mês amostral com menor média de temperatura anual aquele com maior número de indivíduos e de capturas. Além disso, por Akodon montensis ter sido a espécie mais comum e abundante em todos períodos amostrais e em todos os pontos do gradeado, coletou-se 249 amostras fecais para investigar a capacidade dessa espécie em realizar dispersão endozoocórica As amostras coletadas foram analisadas sob lupa para verificar se existiam sementes intactas e, quando colocadas em experimento de germinação, se seriam capazes de germinar. O registro de sementes inteiras nas fezes de Akodon montensis e o tratamento dado às sementes, de não comprometer a capacidade de germinação, permite que a espécie seja, ao menos em parte, considerada legítima e efetiva dispersora de Ficus organensis e de Piper cf. solmisianum

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A configuração de dispositivos é uma tarefa crítica de gerenciamento, pois envolve alterações no estado da rede, da qual, cada vez mais, se exige um funcionamento com garantias de qualidade de serviço (QoS) e com um menor número possível de falhas ou interrupções. Por esse motivo, evidencia-se a importância do uso de protocolos adequados à tarefa de configuração. A opção natural e mais aceita atualmente, o protocolo SNMP, apresenta lacunas e falhas que o tornaram insuficiente para atender esses requisitos de configuração. Dentre os protocolos de configuração disponíveis na atualidade, destaca-se o NETCONF. Por outro lado, SOAP também pode ser usado para configuração e vem ganhando importância com a atual popularização dos Web Services, os quais proporcionam interoperabilidade entre aplicações Web. Enquanto o NETCONF é um protocolo específico para configurações, o SOAP é um protocolo genérico para realizar chamadas remotas de procedimentos (RPC). Ambos podem ser encapsulados em protocolos diferentes, formando arquiteturas de redes distintas. É importante notar que, pelo fato da proposta do protocolo NETCONF ser recente, tem-se poucos (ou talvez nenhum) resultados a respeito do desempenho do NETCONF e seus possíveis encapsulamentos. Uma questão importante que normalmente também surge neste contexto é a da real necessidade de um novo protocolo de configuração como o NETCONF, mediante a existência de um protocolo de uso geral já amplamente aceito como é o caso do SOAP. Nessa dissertação é discutido o uso de NETCONF e SOAP para a configuração de dispositivos. Além disso, são apresentados protótipos que implementam tais protocolos. Para tal, são considerados quatro cenários de gerenciamento utilizando arquiteturas de protocolos distintas que permitiram a realização de avaliações de desempenho dos mesmos em relação ao tempo de resposta e consumo de banda. O resultado dessas avaliações aliado ao estudo realizado sobre as tecnologias envolvidas não ajudou a justificar a existência do NETCONF, apesar da ligeira vantagem do NETCONF sobre o SOAP na questão de tempo de resposta, que pode ser explicada pelas diferentes linguagens de programação empregadas nas implementações. Concluiu-se que o NETCONF pode ser assim eficientemente substituído pelo protocolo SOAP sem perda de funcionalidades e com ganho em relação ao consumo de banda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sincronização, como comportamento cooperativo universal e mecanismo fundamental na natureza, tem sido extensivamente estudada em conexão com inúmeros fenômenos em física, química e biologia [1, 2]. Em particular, a sincronização da atividade neural tem sido observada em diferentes espécies e sob condições fisiológicas distintas [3, 4]. Neste trabalho, estudamos sincronização em neurônios de Hindmarsh-Rose (HR), um modelo de potencial de membrana que representa com fidelidade o comportamento de disparos encontrado em neurônios reais [9, 10]. Iniciamos considerando o caso de um neurônio HR isolado e suas propriedades dinâmicas de geração de pulsos. Em seguida, analisamos o acoplamento entre neurônios em um sistema de dois neurônios, e em redes unidimensionais (HR-1D) e bidimensionais (HR-2D). Nessas arquiteturas, a sincronização dos elementos da rede da origem a um comportamento ordenado, coerente, que está associado não somente à produção de informação biológica [5, 6], mas também às potenciais aplicações em comunicação [7] e identificação de sistemas [8].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado brasileiro de Telecomunicações e Tecnologia da Informação (TIC) tem importância significativa para o desenvolvimento do Brasil, haja vista a evolução do mercado de telefonia móvel, que cresceu 600% nos últimos dez anos. A indústria de telecomunicações, que representa 4,7 % do PIB brasileiro (TELEBRASIL, 2013), passou a ter uma nova dinâmica a partir da elaboração da Lei Geral de Telecomunicações em 1997 e, posteriormente, com a privatização do setor. Esta rápida transformação da cadeia de valor do setor foi também impulsionada pela evolução das tecnologias e de novas arquiteturas de redes. Ademais, a utilização de tecnologias digitais, como aplicativos/APPs e a própria internet, tornou a cadeia de telecomunicações mais complexa, possibilitando o surgimento de novos atores e o desenvolvimento de novos serviços, modelos de negócios e precificação (SCHAPIRO e VARIAN, 2003). Este estudo tem como objetivo analisar os direcionadores e barreiras na adoção de novos modelos de precificação de serviços no mercado brasileiro de telecomunicações, considerando a transformação e evolução do setor. O estudo foi elaborado por meio de uma estratégia de pesquisa qualitativo-exploratória e construtivista baseando-se na abordagem Multinível (POZZEBON e DINIZ, 2012), que trabalha o contexto, o processo e as interações entre os grupos sociais relevantes. A partir desta análise, foi possível compreender os critérios, direcionadores e barreiras no processo de adoção de novos modelos de precificação, as quais destacam-se as demandas dos usuários, a alta concorrência e a necessidade de aumento do retorno do investimento como os direcionadores mais relevantes, enquanto que a qualidade das redes, a falta de sistemas, a situação financeira das operadoras, a complexidade da regulamentação e o surgimento de grupos sociais distintos dentro da empresa são apontados como as barreiras mais críticas neste processo. Dentro deste contexto, os modelos de precificação emergentes abrangem o empacotamento de serviços, ofertas por tempo limitado, modelos de patrocínio/gratuidade, em conjunto com exploração de novas áreas de negócios. Este estudo proporciona uma contribuição prática e acadêmica na medida em que permite uma melhor compreensão do dinamismo do mercado e suporte para as áreas de marketing estratégico e tático das operadoras, bem como na formulação de políticas e regulamentação do setor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este relatório consolida os trabalhos de pesquisa, desenvolvidos entre abril de 2005 e abril de 2006, sobre o estado de adoção e oportunidades para uso de novas tecnologias de informação em processos de governo. A ampliação de fronteiras, para além dos limites tradicionais das organizações, traz uma nova e mais forte demanda por flexibilidade que possibilite o tratamento integrado de organismos de diferentes constituições, arquiteturas e processos operacionais, sem falar nos diferentes sistemas de informações. Isto é ainda mais importante nas organizações públicas. Por outro lado, uma das principais características negativas dos órgãos públicos é a morosidade e a burocracia nos processos administrativos e de atendimento ao cidadão. A falta de uma visão tecnológica moderna, isto é, a falta de um Plano Diretor de Tecnologia da Informação (PDTI) voltada para novas soluções, como é o caso do BPM, alinhada à falta de integração entre os sistemas e processos, faz com que muitos órgãos governamentais estejam caminhando na contramão do desenvolvimento tecnológico. Este projeto de pesquisa reveste-se, portanto, de alto interesse, pois focaliza as possibilidades e impactos da adoção das novas tecnologias orientadas a processos e web services (BPM - Business Process Management e BPMS - Business Process Management Systems) na área governamental, bastante desprovida de soluções integradas de serviços aos cidadãos e empresas. Estas novas tecnologias trazem paradigmas completamente diferentes dos até aqui adotados na implementação de sistemas de informações e automação de processos. Apesar das dificuldades inerentes ao tratamento de um tema complexo e novo, mais ainda em organismos governamentais, acreditamos ter desenvolvido um trabalho bastante aprofundado, atendendo aos objetivos estabelecidos no plano original, com os necessários acertos de rota e foco dos trabalhos. Cremos, também, que este trabalho estabelece uma referência relevante no conhecimento relacionados à melhoria de processos de governo, com base em novas tecnologias. Como sub-produtos planejados e realizados, inseridos no caderno de anexos a este relatório, estão conteúdos já desenvolvidos para a edição um ou dois livros sobre o tema, diversos artigos produzidos, além de diversos eventos realizados na EAESP, envolvendo o tema do projeto, que proporcionaram a oportunidade de excelentes trocas de experiências. Este relatório, apresentado de forma objetiva e sintética, focalizando somente os principais aspectos tratados, é complementado por um extenso conteúdo complementar, entregue em um caderno de Anexos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No período da gestão do Partido dos Trabalhadores (PT) no governo federal, configurou-se uma dupla agenda para a política habitacional brasileira: a primeira ligada à plataforma de reforma urbana, com previsão de descentralização entre os entes federativos e gestão participativa, e a segunda consubstanciada a partir das premissas de reestruturação do setor imobiliário e da construção civil, estruturada em uma política exclusiva de provisão habitacional com promoção privada e financiamento a partir de fundings públicos. No presente trabalho analisou-se a trajetória desta política nos anos 2000, tendo como foco principal o processo decisório que estruturou o arranjo permitindo a convivência destas duas agendas paralelas. Apesar das contradições e conflitos entre elas, também houve um tipo especial de imbricamento que produziu um jogo não só de coexistência, mas com ganhos para ambas. Combinando a análise institucional com abordagens teóricas focadas no papel dos atores e suas coalizões na transformação das políticas públicas, a tese teve como principal hipótese a existência de uma coordenação de interesses desenvolvida como marca característica do governo Lula e que sustentou a combinação destas duas agendas. Este modelo lulista de governança explicou e garantiu, em boa medida, a distribuição de benefícios a ambas as coalizões, além de ter legitimado a política habitacional dentro da agenda pública.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A existência de instrumentos monetários paralelos àqueles “oficiais” não é um fenômeno recente: ao longo da história, diversas foram as formas e ocasiões em que circularam moedas paralelas. No entanto, nos últimos anos, esses instrumentos fundiram-se com a tecnologia, atingindo um alcance praticamente ilimitado, trazendo consequências que ainda não se sabe como estimar. Este trabalho tem por objetivo estudar um caso específico de moeda paralela de alta complexidade tecnológica, o Bitcoin, e descrever quais têm sido os posicionamentos adotados por uma série de jurisdições a esse respeito. Trata-se de uma aproximação mais palatável da linguagem da Tecnologia da Informação e da Economia aos operadores do Direito. O estudo estende-se na direção de propor uma reflexão acerca do significado de se reconhecer no Bitcoin uma moeda paralela – muito embora a discussão acerca de ser ou não moeda constituir apenas uma das discussões possíveis. Explora-se quais têm sido as opções de regulação adotadas pelos Estados que se vêem obrigados a assumir uma posição em relação às moedas virtuais, em geral, e ao Bitcoin, em particular. Percebe-se que a terminologia escolhida pelas jurisdições no tratamento do Bitcoin resulta na sua inclusão em diferentes categorias do Direito e, como consequência direta disso, as implicações jurídicas variam de acordo com a terminologia adotada. O principal tratamento dispensado ao Bitcoin é aquele via tributação, notando-se a preocupação de cada Estado em classificar juridicamente o Bitcoin de acordo com a regulação específica que se pretende invocar a incidência. De acordo com o levantamento realizado, 62 jurisdições já assumiram um posicionamento em relação ao Bitcoin. Com cada vez mais atenção dispensada por órgãos regulatórios internacionais – como é o caso do Banco Central Europeu e do Fundo Monetário Internacional – o Bitcoin reforça seu potencial e suas limitações, principalmente no tocante aos desafios enfrentados à uma regulação eficaz. A conclusão deste trabalho procura reforçar que o tratamento jurídico dispensado a fenômenos novos não é uniforme, e que, uma vez encarado pelo viés da teoria econômica que reconhece a existência das moedas paralelas, o Bitcoin pode ser mais facilmente apreendido em um aparato regulatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O material apresenta o gerenciamento de threads no Windows. Um sistema operacional envolve atividades assíncronas e algumas vezes paralelas, sendo que a noção de processo de software é usada em sistemas operacionais para expressar o gerenciamento e controle de suas atividades. Processo é um dos conceitos fundamentais no projeto de um sistema operacional moderno. Threads podem ser gerenciados pelo sistema operacional ou pela aplicação do usuário. Além desses conceitos, o material destaca a motivação para o uso de threads; o parâmetro CreateThread; e a prioridade e escalonamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This master dissertation presents the study and implementation of inteligent algorithms to monitor the measurement of sensors involved in natural gas custody transfer processes. To create these algoritmhs Artificial Neural Networks are investigated because they have some particular properties, such as: learning, adaptation, prediction. A neural predictor is developed to reproduce the sensor output dynamic behavior, in such a way that its output is compared to the real sensor output. A recurrent neural network is used for this purpose, because of its ability to deal with dynamic information. The real sensor output and the estimated predictor output work as the basis for the creation of possible sensor fault detection and diagnosis strategies. Two competitive neural network architectures are investigated and their capabilities are used to classify different kinds of faults. The prediction algorithm and the fault detection classification strategies, as well as the obtained results, are presented

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Increase hydrocarbons production is the main goal of the oilwell industry worldwide. Hydraulic fracturing is often applied to achieve this goal due to a combination of attractive aspects including easiness and low operational costs associated with fast and highly economical response. Conventional fracturing usually involves high-flowing high-pressure pumping of a viscous fluid responsible for opening the fracture in the hydrocarbon producing rock. The thickness of the fracture should be enough to assure the penetration of the particles of a solid proppant into the rock. The proppant is driven into the target formation by a carrier fluid. After pumping, all fluids are filtered through the faces of the fracture and penetrate the rock. The proppant remains in the fracture holding it open and assuring high hydraulic conductivity. The present study proposes a different approach for hydraulic fracturing. Fractures with infinity conductivity are formed and used to further improve the production of highly permeable formations as well as to produce long fractures in naturally fractured formations. Naturally open fractures with infinite conductivity are usually encountered. They can be observed in rock outcrops and core plugs, or noticed by the total loss of circulation during drilling (even with low density fluids), image profiles, pumping tests (Mini-Frac and Mini Fall Off), and injection tests below fracturing pressure, whose flow is higher than expected for radial Darcian ones. Naturally occurring fractures are kept open by randomly shaped and placed supporting points, able to hold the faces of the fracture separate even under typical closing pressures. The approach presented herein generates infinite conductivity canal held open by artificially created parallel supporting areas positioned both horizontally and vertically. The size of these areas is designed to hold the permeable zones open supported by the impermeable areas. The England & Green equation was used to theoretically prove that the fracture can be held open by such artificially created set of horizontal parallel supporting areas. To assess the benefits of fractures characterized by infinite conductivity, an overall comparison with finite conductivity fractures was carried out using a series of parameters including fracture pressure loss and dimensionless conductivity as a function of flow production, FOI folds of increase, flow production and cumulative production as a function of time, and finally plots of net present value and productivity index