74 resultados para Empresas - Sistemas de comunicação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essa pesquisa tem como principal objetivo analisar e caracterizar a dinâmica associada à geração, à seleção e à implementação de inovações tecnológicas nas cadeias produtivas agroindustriais. A estrutura de análise vale-se da abordagem dos Sistemas Setoriais de Inovação-SSI, aplicada a um recorte vertical definido pelo conceito de cadeia produtiva. A abordagem de SSI é definida como o sistema de firmas e instituições ativas no desenvolvimento e manufatura de produtos de um setor e na geração e utilização das tecnologias setoriais; esse sistema evolui através de processos de interação e cooperação no desenvolvimento de artefatos tecnológicos, bem como por meio de processos de concorrência e seleção em atividades de inovação. Utilizou-se o método de estudos de caso para evidenciar as relações sistêmicas e os trade-offs entre os fatores institucionais, tecnológicos e organizacionais relacionados com o processo de inovação empreendido pelas agroindústrias Escolheu-se um desenho de pesquisa com uma unidade de análise (agroindústrias que recentemente lançaram novos produtos na cadeia produtiva de leite fluido) e múltiplos estudos de caso (duas agroindústrias no Brasil e duas na França, que lançaram algumas das principais inovações de produto nesses mercados na década de 1990, leite UHT Premium, leite esterilizado, leite UHT orgânico e leite microfiltrado, respectivamente). As estratégias desenvolvidas por fornecedores, o setor lácteo e o sistema de distribuição de alimentos estão sofrendo mudanças rápidas nesses países, o que demonstra bem a robustez do fenômeno em contextos diferentes e complexos. Além disso, a consideração de arquétipos contrastantes - grandes corporações multinacionais e pequenas e médias empresas agroindustriais – em dois SSI que representam ambientes assimétricos – países desenvolvidos e em desenvolvimento – favorece a geração de insight sobre a inter-relação dos elementos-chave associados com a inovação tecnológica. O SSI da cadeia produtiva de leite fluido na França é caracterizado por um alto nível de oportunidade, por um lado, devido à disponibilidade de um mercado consumidor relevante, protegido e diversificado, por outro lado, graças a um sistema estruturado voltado ao suporte e financiamento das atividades inovadoras. Além disso, este país conta com uma grande variedade de agentes, capazes de ofertar e desenvolver um amplo leque de soluções tecnológicas inovadoras – o que se expressa pela emergência de variantes tecnológicas pré-paradigmáticas como aquelas consideradas nos estudos de caso Contudo, esse SSI é emblemático de uma concorrência vertical feroz entre as indústrias de laticínios e o varejo. Já no Brasil, o SSI da cadeia produtiva de leite fluido é caracterizado por um nível de oportunidade promissor, o segmento de distribuição é, relativamente, menos concentrado, e a parcela de mercado de produtos com marca de varejo é, ainda, limitado nesse SSI. Apesar disso, as assimetrias no potencial de consumo da população restringem o tamanho dos mercados de nicho e instabilizam a demanda. Ainda, a variedade de soluções tecnológicas nesse SSI é limitada pelo baixo investimento público e privado em pesquisa aplicada e pela restrita integração entre instituições de pesquisa e indústrias de laticínios. Em ambos os SSI, os estudos de caso evidenciaram que o pioneirismo – associado á exploração de ativos complementares (especialmente imagem de marca) – e á aprendizagem tácita, são os meios mais importantes para garantir um certo grau de apropriabilidade das novas tecnologias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo de desenvolvimento econômico e o modelo de transporte urbano têm agravado as condições de circulação nas cidades, provocando grandes deseconomias e comprometendo a qualidade de vida. A realidade mercadológica do mundo tem mudado o relacionamento das organizações com os seus clientes, principalmente em função da globalização, em vista deste cenário justificam sistemas de avaliação de desempenho de organizações que prestam este serviço público. Este trabalho apresenta uma abordagem para avaliação de desempenho de empresas operadoras de ônibus urbano, encontrou-se a oportunidade de implementar um modelo de avaliação de desempenho e gestão que poderá reorientar as atividades da organização, considerando outras variáveis além das financeiras, como operacionais, do ambiente interno, dos clientes e da responsabilidade social da organização. O caso foi estudado a partir de seis modelos de avaliação de desempenho e gestão, com a opção por um deles. A escolha do modelo Balanced Scorecard (KAPLAN; NORTON, 2001) está vinculada aos objetivos do estudo, que são voltados à análise crítica dos indicadores de desempenho e a conseqüente proposição de um modelo capaz de corrigir desvios e melhorar o desempenho ao longo prazo. O modelo é composto por quatro perspectivas com seus respectivos objetivos estratégicos, vinculados aos fatores críticos de sucesso e foi adaptado da obra Organização voltada para a estratégia dos autores Kaplan e Norton (2001). O modelo proposto foi aplicado numa empresa operadora de ônibus urbano da grande Porto Alegre durante dois ciclos de implantação nos quais obteve-se resultados significativos, que são aqui discutidos as vantagens e desvantagens de sua utilização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho versa sobre o processo de desenvolvimento de produtos, que pode ser definido como a transformação de uma idéia (uma oportunidade de negócios) em um produto acabado, pronto para ser vendido. Este processo é desdobrado em uma série de atividades e visa combinar as necessidades do mercado, ou seja, do cliente, com as capacidades e possibilidades tecnológicas da empresa. O desafio na gestão do processo de desenvolvimento de produtos consiste na integração das atividades, requisitos e competência s necessárias para melhorar a eficiência do processo como um todo. Para explicar a operacionalização da gestão integrada, realizou-se um estudo de múltiplos casos onde foram analisadas três empresas fornecedoras first tier da Cadeia Automotiva do Rio Grande do Sul. Para tanto, foram descritos o mix de projetos e as etapas do processo de desenvolvimento de produtos. Foi analisada, em cada empresa, a composição, a operação e a coordenação das equipes de desenvolvimento, os meios de comunicação utilizados e a participação de clientes e fornecedores durante o processo de desenvolvimento de produtos. A principal conclusão é que a gestão integrada é viabilizada pela cultura organizacional e pelos meios de comunicação. Foram exploradas, também, as contribuições externas que podem ser dadas por clientes, fornecedores e outras organizações, sendo constatado o efetivo envolvimento desses parceiros externos. No entanto, a integração entre os agentes internos e externos requer organização para o sucesso do processo de desenvolvimento de produtos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse estudo tem por finalidade contribuir para a discussão e o aprimoramento da gestão econômica e do desenvolvimento de ferramentas de apoio à decisão estratégica para empresas de serviços de saúde suplementar. Com base nos fundamentos teóricos sobre serviços, serviços de saúde suplementar, gerenciamento estratégico de custos e sistemas ABC/ABM, o estudo propõe um modelo de sistema de gestão de custos indiretos em planos de saúde sob a óptica do ABC/ABM, que visa proporcionar aos gestores uma visão ampla sobre o desempenho econômico dos planos e dos clientes. Assim, este estudo pretende colaborar com o desenvolvimento desse setor, que tem sofrido nos últimos anos o impacto da evolução da tecnologia e da medicina, provocando a constante elevação dos custos da assistência à saúde. Com a finalidade de justificar o estudo, o modelo é testado com a sua implementação em uma operadora de planos de saúde, possibilitando a discussão sobre as conclusões obtidas em relação ao problema abordado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho identifica as principais características e relevância do setor de serviços no cenário econômico brasileiro, discutindo a importância do desenvolvimento dos sistemas gerenciais, em especial aqueles dedicados ao gerenciamento estratégico dos custos e da cadeia de valor. Para o desenvolvimento do tema discute-se inicialmente as características do setor de serviços e os principais métodos de acumulação de custos e a partir deste referencial teórico é apresentada, em estudo de caso, a realidade de um importante grupo empresarial e a necessidade de revisão de seus modelos gerenciais no que se refere a metodologia utilizada e suas deficiências. Aplica-se, no desenvolvimento deste estudo de caso, os conceitos da gestão estratégica de custos e conclui-se que para a manutenção de diferenciais competitivos sustentáveis é indispensável construir um sistema adequado de custeio, servindo como referencial o sistema de custos baseado em atividades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A mensuração do desempenho organizacional é um assunto que tem sido muito estudado nos anos mais recentes, sendo esta uma preocupação tanto acadêmica quanto dos executivos de negócio. Foram feitos diversos estudos sobre o tema, uma vez que tais estudos foram elaborados obedecendo aos critérios exigidos no contexto. Desta forma, a presente pesquisa buscou encontrar elementos de apoio à estruturação de um Sistema de Medidas de Desempenho que seja reconhecido como de vital importância enquanto ferramenta auxiliar para a tomada de decisões. Estes elementos surgiram através da análise do processo de planejamento estratégico, uma vez que é a partir deste processo que se baseia a estruturação do sistema. Através do método de estudo de múltiplos casos, a presente pesquisa estudou duas empresas do setor de distribuição. A primeira destas estava em uma etapa inicial do processo de estruturação, onde, durante esta formulação, predomina o empirismo; e a segunda, em sua etapa final, o que permitiu a realização da pesquisa com uma visão deste processo de estruturação em suas diferentes etapas. Os resultados da pesquisa trazem à luz a relevância dos elementos culturais e ambientais para a estruturação de um Sistema de Medidas de Desempenho. Do mesmo modo, estes resultados destacam a importância de se executar os princípios de gestão estratégica durante a operacionalização deste sistema. Como produto final desta pesquisa, é apresentado um modelo de estruturação de um Sistema de Medidas de Desempenho para empresas do setor de distribuição, cujos principais elementos são os de Política e Cultura Organizacional, de Ambientes Externo e Interno, de Estratégia, de Objetivos Estratégicos e de Princípios de Gestão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, descreve-se o processo de produção de tecnologias educacionais e de Tecnologias da Informação e Comunicação (TICs), relacionando-as ao uso do ensino em Engenharia Geotécnica. Desenvolveu-se um sistema de informação baseado num modelo que integra recursos educacionais produzidos em diferentes formatos eletrônicos e um software baseado na Web para gestão destes recursos e das informações da disciplina Fundações. O software, denominado ENGEO, auxilia a estruturação do conhecimento envolvido no domínio de aplicação, fornecendo ao professor, ou equipe de gestão, ferramentas remotas de administração dos conteúdos e dos recursos educacionais. Aos alunos, a aplicação ENGEO fornece disponibilidade de informações e de conteúdo em um ambiente flexível. Este aplicativo foi desenvolvido para o curso de Engenharia Geotécnica, particularizado para Engenharia de Fundações, com o objetivo de introduzir e incentivar a utilização de sistemas baseados na Web para compartilhamento de conteúdo das disciplinas, implementar Tecnologias de Informação e Comunicação em aplicações para fins educacionais e fomentar discussões a respeito da identidade e perfil do Engenheiro e o papel da TICs no processo de formação do profissional de Engenharia.