998 resultados para fluxos
Resumo:
Este trabalho é composto de três partes. O primeiro capítulo avalia a hipótese de substituição de poupanças. De acordo com Bresser-Pereira e Nakano (2003), existe nas economias emergentes uma alta taxa de substituição de poupança interna por externa gerada pelo processo de influxo dos recursos estrangeiros. Isso acontece porque, dada a propensão ao consumo dos países emergentes, a maior parte do déficit em conta corrente se transforma em consumo de importados; a parcela dos fluxos gasta em investimento é pequena, de forma que a estratégia de crescimento com poupança estrangeira não é uma opção. Diante desta hipótese, o capítulo avalia teórica e empiricamente a existência de substituição de poupança interna por externa nos países em desenvolvimento e o papel da sobreapreciação da taxa de câmbio real (TCR) nesse processo. Foi utilizado um painel dinâmico System-GMM para uma amostra de 48 países de renda média cobrindo o período de 1970-2004. Os resultados mostram um processo de substituição de poupança doméstica por externa significante, além de efeitos negativos sobre a poupança doméstica resultantes da interação entre sobreapreciação do câmbio e entrada de poupança estrangeira. O segundo capítulo analisa os efeitos de sobreapreciações da TCR sobre o valor adicionado por setores dos países emergentes, para o período 1970-2004. A sobreapreciação, ao minar a competitividade dos produtos manufaturados e industriais domesticamente, pode reduzir a capacidade dos países em desenvolvimento de estimular setores dinâmicos da estrutura produtiva que induzem crescimento e desenvolvimento sustentável no longo prazo. A motivação teórica é a visão Kaldoriana de desenvolvimento. Assim, o capítulo testa a relação entre a sobreapreciação da TCR sobre o valor adicionado dos setores produtivos de bens primários e manufatureiros como parcela do produto, no período de 1970 a 2004, para uma amostra de 45 países emergentes. Os resultados evidenciam que os episódios de sobreapreciação caracterizados pelo índice reduzem a participação de manufaturados no valor agregado no produto das economias em desenvolvimento, de forma significante. A razão provável deste resultado é que um câmbio sobreapreciado não só torna os bens industriais domésticos menos competitivos, como também favorece a importação doméstica destes que, em virtude disto, deixam de ser produzidos ou aperfeiçoados dentro do país. Por fim, o terceiro capítulo avalia os efeitos da dívida externa sobre crescimento de um ponto de vista diferente dos diagnósticos da literatura “debt overhang”: argumenta que é a estratégia de crescimento com poupança externa a causa do crescente endividamento que, no longo prazo, é responsável por prejudicar a performance de crescimento dos países emergentes por gerar crises no balanço de pagamentos. Para avaliar esta dinâmica empiricamente foi estimada uma equação de crescimento com painel dinâmico System-GMM de variáveis instrumentais; são utilizados dados para 45 países de renda média, no período 1970-2004. A conclusão geral dos exercícios empíricos atesta uma influência não linear da dívida externa sobre o crescimento dos países selecionados na amostra: no longo prazo, o contínuo endividamento reduz o desempenho de crescimento dos países. Pode-se apontar ainda que um dos mecanismos pelo qual a poupança externa pode levar a maior dívida externa é sua interação significante com o influxo de recursos externos necessários para a rolagem da dívida; o resultado sobre o desempenho de crescimento é negativo e significante. Por fim, o apêndice do trabalho detalha os procedimentos de estimação de painel cointegrado utilizados para derivar os índices de sobreapreciação da TCR.
Resumo:
Neste artigo estimam-se os fluxos escolares do ensino fundamental para o médio e os fluxos ao longo do médio para a última década nas seis maiores regiões metropolitanas do país. Também se estimam que conjuntos de variáveis associadas às características do aluno e sua família, do mercado de trabalho local e das condições locais de oferta escolar que estão mais fortemente relacionadas com os fluxos observados. Os resultados indicam que: a não aprovação ainda é uma barreira para o ingresso no ensino médio e para a sua progressão ideal; a não aprovação perdeu importância nos últimos anos para a explicação da evasão escolar; a educação dos pais é um fator relevante tanto para a aprovação quanto para a continuação dos estudos; e a qualidade da escola é um fator importante para a aprovação.
Resumo:
Esta pesquisa objetiva verificar de que forma, no Brasil, as políticas públicas relacionadas às ameaças químicas, biológicas, radiológicas, nucleares e explosivas (QBRNE) contribuem para o preparo de resposta a um incidente de tal natureza. No mundo contemporâneo há uma concentração das populações nos centros urbanos, tornando-as vulneráveis a desastres químicos, biológicos, radiológicos e nucleares, os quais podem ser desencadeados por eventos adversos, intencionais ou não, resultando em grandes impactos humanos, ambientais, materiais, sociais e econômicos à nação. O terrorismo é uma das possibilidades de ocorrência de um grande desastre, utilizando-se principalmente de atentados com explosivos e podendo se valer dos efeitos dos agentes contaminantes. Então, foram pesquisadas e apresentadas políticas públicas e ações do governo federal norte-americano para o trato de ameaças QBRNE, as quais são comparadas à situação prospectada no território brasileiro, por meio da legislação, políticas públicas, orçamento, documentos e bibliografia. Diversas instituições foram avaliadas quanto ao papel a ser desempenhado em uma situação emergencial, sendo os dados tratados por análise de conteúdo e historiografia. A literatura sobre política pública é ampla, com rica discussão sobre as boas práticas de gestão pública, a evolução do papel dos servidores públicos para um ser técnico e político simultaneamente e de que maneira é influenciada a concepção de uma política pública. O Modelo de Fluxos Múltiplos e a Teoria de Equilíbrio Pontuado são usados para compreender o processo dinâmico de construção da agenda decisória no governo federal para o tema estudado. Concluiu-se que as políticas públicas de resposta para ameaças QBRNE surgem dispersas em diversas instituições, promovidas pelas equipes técnicas, de maneira descentralizada e sem uma orientação do governo central, o que acarreta sobreposição de atividades, havendo casos de problemas não tratados, desprezando-se a complementação de recursos e efetivos.
Resumo:
A ascensão da sociedade industrial ocasionou a explosão demográfica das cidades, instaurando na urbe problemas de moradia, circulação, de segurança entre outros. O movimento modernista em arquitetura procurou responder às novas demandas com a concepção de uma cidade racionalizada, tal qual o novo modo de produção. Esta cidade seria setorizada por funções, a fim de evitar a segregação eminente. Porém, a aplicação deste modelo não respondeu de maneira efetiva os problemas cada vez maiores, e, a partir da metade do Século XX surgem em diversos países teorias que buscavam na cidade pré-industrial a viabilidade para a nova era. Teorias desenvolvidas na Europa defendiam a criação de uma cidade plurifuncional, onde os espaços se direcionariam a diversas funções e público a fim de garantir a vitalidade urbana. Na América do Norte estas premissas também são defendidas, porém sempre utilizando o espaço polivalente como mecanismo de promoção urbana. Logo, na contemporaneidade verifica-se o surgimento de duas forças opostas que interferem no espaço urbano: a primeira, a grande força do capital privado que busca intensificar seus lucros mesmo utilizando-se de “discursos sociais”, e a outra é definida pela força da sociedade como um todo, que busca no desenvolvimento sustentável, um meio de garantir a qualidade de vida não só para os dias atuais, mas também para as gerações futuras. Curitiba passa por todas estas interferências ao longo de sua urbanização, desde a racionalização modernista na concepção para o primeiro plano global para a cidade - o Plano Agache, passando por influências historicistas onde é aplicada a requalificação dos espaços urbanos no centro da cidade, e culminando na última década com políticas voltadas para o desenvolvimento sustentável, buscado em parte pela descentralização urbana. Esta, já se encontrava em processo de implantação com a criação dos eixos estruturais na segunda metade do Século XX, sendo consolidada com a criação de centros de bairro chamados Ruas da Cidadania na periferia da cidade. Na realidade, na década de 90, Curitiba sofreu a ação de uma intensa industrialização que ocasionou o rápido adensamento do meio construído e com a multiplicação de funções por ela abrigada. Decorrentes disso os fluxos urbanos se tornaram mais confusos, insuficientes para atender às novas necessidades da população. Face todas estas circunstâncias, originárias a partir do processo de industrialização, a urbanização em Curitiba foi sendo guiada por meio de um processo que visava a descentralização tanto política como de serviços. Os novos centros de bairro foram criados dentro de uma política pautada nos novos modelos de gestão urbana, que defendem valores como direito à cidadania e a democratização dos espaços públicos, tendo como principal função a descentralização políticoadministrativa da cidade. As Ruas da Cidadania, objeto deste estudo, são o resultado de uma seqüência de ações do Poder Público Municipal para tentar, na medida do possível, abrandar os efeitos negativos do inchaço populacional nas periferias de Curitiba, procurando ainda proporcionar a melhor integração da comunidade, uma vez que também se caracterizam por ser um espaço de reivindicações e de debates sobre o território.
Resumo:
Nesse trabalho, procuramos identificar fatores sistemáticos que expliquem uma variação significativa nos fluxos destinados às diversas categorias de fundos de investimento brasileiros, a partir de análises de uma amostra de dados agregados de captações e resgates nesses produtos. O estudo buscou avaliar a existência de padrões de comportamento comuns aos investidores de fundos locais através da análise da migração de fluxos entre as diversas classes de fundos. Foram inicialmente tratados os fatores não comportamentais conhecidos que impactam o fluxo dos fundos, a variável dependente. Esses fatores conhecidos foram apurados através de uma revisão dos trabalhos acadêmicos dos mercados internacional e local. Após esse tratamento foi aplicado o método de decomposição de valores singulares (SVD - Singular Value Decomposition), com o objetivo de avaliarmos os efeitos comportamentais agrupados dos investidores. A decomposição em valores singulares sugere como principais fatores comuns comportamentos de entrada e saída de fundos em massa e migrações entre as classes de fundos de menor e as de maior risco, o que Baker e Wurgler (2007) chamaram de demanda especulativa, e que, segundo esses e outros autores pesquisados, poderia ser interpretada como uma proxy do sentimento dos investidores. Guercio e Tkac (2002) e Edelen et al. (2010), encontraram em suas pesquisas evidências da diferença de comportamento entre investidores de atacado e de varejo, o que foi detectado para a classes de fundos de Renda Variável no caso do presente estudo sobre o mercado brasileiro. O entendimento das variações na tolerância a risco dos investidores de fundos de investimento pode auxiliar na oferta de produtos mais compatíveis com a demanda. Isso permitiria projetar captações para os produtos com base nas características dessa oferta, o que também desenvolvemos nessa pesquisa para o caso das categorias de fundos Multimercado e Renda variável, através de um modelo de espaço de estados com sazonalidade determinística e inicialização SVD. O modelo proposto nesse trabalho parece ter conseguido capturar, na amostra avaliada (2005-2008), um comportamento que se manteve fora da amostra (2009-2011), validando, ao menos na amostra considerada, a proposta de extração dos componentes principais agregados do comportamento dos investidores de fundos brasileiros.
Resumo:
Este trabalho situa-se no campo de Estratégia Empresarial e trata do tema de internacionalização de empresas, mais especificamente da internacionalização no ramo de Private Bank no Brasil. O objetivo desta pesquisa foi realizar um levantamento dos fatores que influenciam a internacionalização de empresas atuantes no ramo de Private Bank no Brasil. Utilizou-se uma metodologia com abordagem qualitativa de natureza exploratória. Foi realizado um estudo de caso do Private Bank Internacional do Banco Itaú Unibanco S.A.. Foram realizadas 7 entrevistas semiestruturadas com profissionais que atuaram ou atuam no Private Bank do banco selecionado. Os principais resultados encontrados na pesquisa foram: (i) o ramo de Private Bank ainda não foi alvo de análise específica pelos interessados na internacionalização de bancos; (ii) também foi identificado que os autores que estudaram a internacionalização de bancos não recorreram à análise dos Offshore Financial Centers (OFC) para explicar a internacionalização das instituições financeiras, a presente pesquisa propõe que é de fundamental importância a análise dos OFC para o entendimento da internacionalização no ramo de Private Bank; (iii) os principais fatores que influenciaram a internacionalização no caso selecionado são: a busca de fornecimento de serviços financeiros internacionais para os clientes domésticos ou internacionais e a busca de novos mercados para a ampliação da base de clientes; (iv) sugere-se que ao invés do que proposto em outras pesquisas, a internacionalização em bancos não se dá por conta dos bancos seguirem seus clientes fisicamente, mas sim seguirem os investimentos e fluxos financeiros dos clientes; (v) finalmente, sugere-se também que a competição das empresas de Private Bank atuantes no Brasil não se dá somente pela presença internacional, mas sim pela capacidade de interligar recursos diferenciados presentes em diversos países e conseguir gerar valor através dessa rede.
Resumo:
A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.
Resumo:
Na estrada, pegadas sugerem passos e descompassos de andarilhos de diferentes tribos. Por toda parte, pisadas: rastejantes, superficiais, firmes, a-fundadas, dançarinas, crianceiras e até rasuradas. A diagramação é a máquina que captura as relações de forças e ressalta, no percurso e no percorrido, linhas, fluxos e composições. Da vida, lampejos de pensamentos desgarram-se. Dos pensamentos, possibilidades de vida desprendem-se. É nesse ponto que a experimentação suscita outros modos de pensamento e desencadeia novas maneiras de viver. É por essa conjugação com a vida que os signos se dão à sensibilidade e coagem-na a sentir. A agressão inicial repercute: leva a memória a aprender um imemorial, a fabular um por vir e a resistir ao presente; introduz o tempo no pensamento e o desafia a pensar o impensado. À vista disso, a aprendizagem conduz as faculdades ao exercício transcendente e requer uma educação voltada para a emissão e a exploração dos signos. Da conexão entre educação, crianceiria e filosofia, forças são duplicadas e devires precipitados.
Resumo:
Os depósitos sem vencimento formam grande parte da base de captação das instituições financeiras. Esses passivos, depósitos à vista ou de poupança, embora permitam que seus titulares saquem a qualquer momento o montante integral de suas aplicações, permanecem nas instituições financeiras por longos períodos de tempo. A falta de maturidade contratual definida torna o gerenciamento de riscos desses produtos uma difícil tarefa. Este estudo busca analisar as maturidades implícitas dos depósitos de poupança através de um modelo de carteira replicante. Como resultado, são apresentadas estruturas para alocação de fluxos de caixa para gestão de risco de mercado e liquidez dos depósitos de poupança.
Resumo:
Esta tese é composta por 3 estudos empíricos sobre macroeconomia. O primeiro ensaio discute a persistência da inflação no Brasil. O segundo estudo analisa o produto potencial e, principalmente, a questão taxa neutra de juros no Brasil, tema fundamental para a condução da política monetária. O último trabalho discute a questão da paridade entre os juros no Brasil e no exterior. O primeiro ensaio desta tese estima a taxa real de juros de equilíbrio no Brasil durante o período 1997-2012 usando diversas metodologias. Os resultados mostram alguma diferença nas estimativas da taxa de juros de equilíbrio dependendo da especificação utilizada, principalmente na modelagem da Curva IS. A mensuração do hiato do produto não é o principal responsável pelos resultados encontrados para a taxa de juros de equilíbrio. A estimação conjunta do PIB potencial e taxa neutra de juros não leva a resultados muito diferentes dos obtidos estimando a taxa neutra isoladamente. Independente do modelo utilizado, os resultados indicam redução na taxa de equilíbrio no Brasil nos últimos anos. O segundo ensaio estima a persistência da inflação no Brasil tanto em termos agregados quanto desagregados. O trabalho ainda compara a persistência da inflação no Brasil com a persistência em outros países emergentes. Os resultados indicam que a persistência da inflação no Brasil é maior do que em outros países, mas este resultado não é obtido para todos os métodos de estimação utilizados. A persistência no núcleo da inflação é maior do que na “inflação cheia”. Apesar da persistência elevada, nossos resultados indicam que a expectativa de inflação é uma variável mais importante na determinação da inflação corrente do que a inflação passada. O terceiro ensaio analisa a diferença entre as taxas de juros no Brasil e no exterior, particularmente nos EUA, e evidências de fluxos de investimentos locais ou estrangeiros para explorar o diferencial de juros. Os resultados indicam que os fluxos de investimento estrangeiro tiveram pouco impacto nas taxas de juros no Brasil. Medidas de risco-país e risco cambial são importantes para explicar o diferencial de juros sendo que as medidas de risco-país parecem ter sido mais importante no início de nossa amostra enquanto as medidas de risco cambial foram mais importantes nos últimos anos. Medidas de risco cambial, particularmente a volatilidade do câmbio ajudam a explicar a falta de convergência dos juros no Brasil com os juros praticados no exterior. Apesar da elevada volatilidade da taxa de cambio, uma simples estratégia de comprar Real (BRL) e investidor no mercado local de juros (estratégia similar a aplicar no contrato futuro de Real) teria gerado um índice de Sharpe tão elevado ou maior do que o observado em estratégias mais sofisticadas envolvendo diversas moedas.
Resumo:
Os controles de capitais estão novamente em voga em razão dos países emergentes reintroduzirem essas medidas nos últimos anos face a abundante entrada de capital internacional. As autoridades argumentam que tais medidas protegem as economias no caso de uma “parada abrupta” desses fluxos. Será demonstrado que os controles de capitais parecem fazer com que as economias emergentes (EMEs) fiquem mais resistentes diante de uma crise financeira (por exemplo, uma queda na atividade econômica seguida de uma crise é menor quando o controle é maior). No entanto, os controles de capitais parecem deixar as economias emergentes (EMEs) também mais propícias a uma crise. Deste modo, as autoridades devem ser cautelosas na avaliação quanto aos riscos e benefícios relativos a aplicação das medidas dos controles de capitais.
Resumo:
Os projetos de CIs (Circuitos Integrados) atualmente compreendem muitas tarefas para sua execução. Durante um fluxo de projeto de CI são necessárias ferramentas que lidam com essas diferentes tarefas. Algumas empresas compilam diversas ferramentas em um único ambiente, ou framework, onde tais ferramentas são adaptadas para interagir entre si. O uso desses frameworks é suficiente para muitos projetos, porém podem existir requisitos que obriguem a utilização de ferramentas independentes para suprir deficiências dos ambientes, exigindo a utilização conjunta de ferramentas não projetadas para cooperar. A interoperabilidade entre sistemas computacionais tem se tornado um tópico de extrema importância. Ela possibilita a execução conjunta de ferramentas, diminuindo a necessidade de intervenção humana para tanto. A interoperação entre ferramentas independentes e frameworks é importante não somente para facilitar o uso conjunto de ferramentas, mas também permite que outros tópicos sejam explorados. Entre eles estão o trabalho de equipes geograficamente distantes e a possibilidade de trabalho com grandes quantidades de dados, que são duas questões importantes para microeletrônica. Ainda, a interoperação entre ferramentas independentes e ambientes traz benefícios mútuos: as ferramentas podem utilizar funcionalidades dos ambientes e se adaptar aos fluxos de projeto deles; os ambientes podem ter suas funcionalidades estendidas pela inclusão de novas ferramentas em seu trabalho. Essas questões são especialmente importantes para pequenas empresas ou ferramentas acadêmicas que não têm condições de incorporar em suas ferramentas muitos dos procedimentos que os ambientes oferecem. Este trabalho apresenta uma proposta para auxiliar a interoperação entre ferramentas independentes e frameworks relevantes para a microeletrônica, através de um protocolo inspirado em SOAP (Simple Object Access Protocol), além de oferecer ferramentas de auxílio para a adaptação ao protocolo proposto. A interação com os frameworks é feita através de linguagens script disponibilizadas por eles. Estudos de caso são apresentados para demonstrar a usabilidade da proposta.
Resumo:
A forte apreciação cambial que o Brasil sofreu na última década se traduziu em um novo debate acerca da hipótese de Doença Holandesa no país. Como a queda da taxa de câmbio real ocorreu em um período de alta de preços de commodities e nos últimos anos, especialmente após a crise de 2008, vimos uma maior concentração da pauta exportadora em produtos primários, muitos economistas argumentam que a apreciação foi consequência do boom de commodities e que, em razão disso, o Brasil poderia estar sofrendo da Doença Holandesa. Este trabalho mostra que o boom de commodities não foi a principal causa da apreciação da taxa de câmbio real e não representou uma maior dependência destas mercadorias. A mudança do perfil de risco da economia brasileira foi um dos fatores mais importante para a queda da taxa de câmbio. Concluímos, portanto, que a recente perda de competitividade dos demais setores exportadores não pode ser atribuída exclusivamente à valorização das commodities.
Resumo:
Com a crescente utilização das ferramentas de comunicação digitais, emergem as discussões em torno de um arcabouço regulatório que possa, ao mesmo tempo, lidar com as necessidades de proteção dos usuários da internet e promover a inovação e o acesso ao conhecimento. Dada a novidade do tema, diferentes caminhos foram trilhados no Brasil: da ausência de regulação para a construção de novos tipos penais à posterior evolução para a construção de um quadro de direitos civis para a rede mundial de computadores no país. Sendo assim, esta dissertação busca explorar de que forma a agenda brasileira de regulação da internet adentra a agenda governamental e quais os principais atores presentes nessa discussão, dentro e fora do governo. Esta pesquisa busca reconstruir, por meio da análise documental e de entrevistas, as discussões em torno do tema da regulação da rede e investigar a influência do contexto político e institucional para a formação dessa agenda. Além disso, procura investigar quais as principais visões e ideias dos grupos atuantes em torno da regulação da internet e quais os resultados na proposição de leis no Congresso. Essa dissertação é baseada em um estudo de caso único, cujo objeto é o Projeto de Lei do Marco Civil da Internet. A metodologia empregada é qualitativa, realizada por meio de entrevistas semiestruturadas com a equipe do governo federal que participou da formulação do projeto de lei, com atores da sociedade civil atuantes no tema, além de atores-chave do Congresso Nacional. Espera-se, a partir daí, reconstruir historicamente o processo de formulação da agenda de regulação da internet, mapeando os seus principais atores e suas ideias, valores e interesses em torno da questão, buscando compreender de que forma esse tema adentra a agenda governamental.
Resumo:
Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.