77 resultados para Circuitos eletrônicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foi estudada a síntese química do poli (5-amino 1-naftol) (PAN) em presença de diferentes agentes dopantes e meios reacionais. Os polímeros obtidos foram caracterizados pelas técnicas espectroscópicas de infravermelho, Raman, por microscopia eletrônica de varredura, por voltametria cíclica, temogravimetria, medidas de condutividade elétrica e grau de aderência. A estrutura do PAN obtido apresentou-se semelhante aos resultados obtidos para a PAni. Filmes de PAN sintetizados em meio aquoso ácido sobre substratos de platina apresentaram eletroatividade e estabilidade à ciclagem quando. Filmes preparados a partir de PAN sintetizado em presença dos ácidos dopantes dinonil naftalêno disulfônico (DNNDSA), dinonil naftalêno sulfônico (DNNSA) e dodecil benzeno sulfônico (DBSA), apresentaram-se mais homogêneos e mais aderentes que os sintetizados em ausência desses. A aplicação na construção de dispositivos eletrocrômicos e de chaveamento apresentou-se inicialmente viável para todas as amostras testadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A idéia de circuito, no mundo contemporâneo, está associada ao processo da comunicação mediada e à sua complexidade. Com o objetivo de verificar qual o papel dos circuitos comunicativos na formação de redes e na construção da cidadania no ciberespaço, procuramos mostrar como se caracterizam os circuitos, a partir do estudo realizado em weblogs voltados à discussão crítica de temas relacionados à realidade social e política brasileira. Como instâncias mediadoras entre o imaginário e a construção social da realidade, os circuitos comunicativos se desenvolvem e geram novos circuitos emergentes, interferindo na sua própria organização e na circulação das informações. Nos blogs, as narrativas são construídas acionando os três momentos presentes na dinâmica do circuito (produção, difusão e uso/aceitação de informações). Assim, numa relação dialógica entre subjetividade e objetivação, as narrativas formam tramas de sentidos, responsáveis pelos intercâmbios das significações e pela mobilização dos cidadãos no ciberespaço. Cidadania esta relacionada às capacidades cognitivas e aos recursos simbólicos, necessários aos indivíduos para coordenarem suas ações num mundo marcado por incertezas e crises de sentido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho de pesquisa foi investigar o desempenho de alunos que trabalharam com atividades de simulação e modelagem computacionais no estudo de circuitos elétricos, utilizando o software Modellus, comparado com alunos expostos apenas ao sistema tradicional de ensino. A fundamentação teórica adotada esteve baseada no referencial de trabalho de Halloun sobre modelagem esquemática e na teoria de Ausubel sobre aprendizagem significativa. O estudo envolveu 193 alunos de cursos de Engenharia, da disciplina de Física-II oferecida pela UFRGS no 2° semestre de 2004. O procedimento didático ocorreu em duas etapas. Na primeira, os alunos do grupo experimental trabalharam com um conjunto de atividades sobre circuitos elétricos simples durante cinco aulas e na etapa seguinte, com um conjunto de atividades sobre circuitos RLC durante quatro aulas. Cada aula teve duração de 1h40min. Os resultados quantitativos mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos alunos dos grupos de controle, expostos apenas ao método tradicional de ensino. Os resultados de nossa análise qualitativa sugerem que muitos dos alunos atingiram uma aprendizagem significativa. Nossas observações e o levantamento de opiniões mostraram que o procedimento didático adotado exigiu muita interação dos alunos com as atividades computacionais, dos alunos entre si e com o professor, tornando-se um elemento motivador na aprendizagem dos alunos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visa a presente dissertação de mestrado estabelecer um sistema de contabilidade de custos integrado e coordenado com a contabilidade financeira para a Industria de Oleos Vegetais e que, encarando este sistema sob um duplo enfoque, contabil e administrativo, permita a conciliação destes dois enfoques ate certo ponto contrastantes. A construção de um sistema de custo requer um completo entendimento: (1) dos processos de produção; (2) dos objetivos perseguidos pelo sistema de custos e (3) da estrutura organizacional da empresa. Quanto às caracteristicas especiais da industria de óleos de soja, no Rio Grande do Sul, no que se refere a seu processo de estas são, basicamente: (1) produção continua em massa; (2) obteção de co-produtos e de subprodutos e (3) industrialização subdividida em fases. Destarte, o custo de industrialização de sementes oleaginosas divide-se basicamente em duas fases importantes: (1) uma, de custos conjuntos, comuns a todos os produtos resultantes - o circuito do grão - que abrange a ensilagem, a preparação dos grãos e a extração. (2) outra, de custos isolados - que abrange os circuitos óleo (miscela) e do farelo (polpa), bem como o refino e a embalagem. Quanto aos objetivos perseguidos com a introdução de um sistema de custos na Industria de Óleos Vegetais, requerem-se dados de custos basicamente para três finalidades: (1) custos para estoques: avaliação de estoques para fins de inventário; (2) custos para controle: avaliação da eficiência para fins de controle; (3) custos para decisões: estabelecimento de parâmetros fins de tomada de decisões. Quanto à estrutura organizacional, deverá, na elaboração de um sistema de custeio, ser observada a constituição da empresa em termos de departamentos e/ou de centros de custos, caracterizando-os como sendo auxiliares, de produção, de vendas, distribuição, ou ainda de administração. Dadas as caracteristicas da industria, os objetivos perseguidos e a estrutura organizacional básica constatada, concebeu-se um sistema de custo, integrado e coordenado com o restante da escrituração, com as se guintes caracteristicas: (1) Quanto à concepção formal do sistema: Sistema Dualista com escrituração em Partidas dobradas mediante Registros Globais; (2) Quanto à concepção essencial do sistema: Custeio Parcial de Absorção, com emprego de custos gerais indiretos setorialmente diferenciados, absorvidos com base na capacidade normal; (3) Quanto ao metodo de alocação dos custos conjuntos aos coprodutos: Abordagem do Valor Relativo de Vendas (calculado) no Ponto de Separação, estabelecido com base em cálculo retroativo partindo dos valores relativos de vendas dos co-produtos no ponto de vendas e trabalhando de trás para frente em direção aos valores relativos de vendas aproximados (calculados) no ponto de separação e deste ainda subtraindo o credito total conjunto e o custo administrativo que foi atribuido aos co-produtos por rateio; (4) Quanto ao método de alocação das receitas com subprodutos: subtração da receita obtida com a venda dos subprodutos dos custos da fase em que os mesmos são obtidos. É sistema dualista, porque propõe a existência de "duas" contabilidades - a contabilidade externa ou financeira e a contabilidade interna ou de custos, sendo, todavia, complementares entre si. Sua escrituração se faz em partidas dobradas, mediante registros globais, porque é contabilidade de custos é conduzida atraves de fichas, mapas, planilhas e somente o resumo final do movimento de valores e contabilizado mensalmente mediante lançamentos globais. É um sistema de custeio parcial de absorção, porque: (1) atende ao que estabelece o Cecreto-Lei n9 1398, de 26/12/77, em seu art. 139 , a respeito da avaliaçâo dos estoques, para fins de inventários; (2) permite o uso de orçamentos flexiveis para fins de controle e com isso a adaptação do sistema de custeio ao nivel de produção (ou de atividade) esperado durante o periodo de produção; (3) permite tanto determinar o custo dos produtos (para fins de inventário), como tambem a contribuição que os mesmos trazem ao lucro empresarial e à receita total (para fins decisoriais) ; e ainda (4) permite, se separados os custos indiretos em fixos e variáveis, no Mapa de Localização de Custos, o cálculo do ponto de equilibrio de alternativas de resultado a diversos niveis de produção, bem como ainda de alternativas de limites inferiores de preço de venda a diversos niveis de produção, para fins decisoriais. Para fins contábeis e para a integração custo - contabilidade são usados valores histéricos, para fins de controle, valores orçados, estimados e para fins de decisão, valores de reposição ou estimados (projetados). o sistema de custos baseia-se, ainda, para sua elaboração, em duas peças-chave, que são: (1) - O Mapa de Lqcalização de Custos, no qual todos os custos indiretos são alocados por especies de custos e por centros de custos; (2) - O Boletim de Apropriação de Custos, no qual e realizado o cálculo do custo unitário dos co-produtos, para fins de inventário. Para que aconteça a total integração da contabilidade de custo com a contabilidade financeira, esta mantém contas de produção e de estoques, fase por fase, nas quais são lançados, por intermedio de registros globais, os resultados do cálculo de custos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos os resultados experimentais da medida do calor específico dos compostos Heusler da série Ni2TA1, onde T =Ti, Zr,Hf,V,Nb, Ta. Estas medidas foram feitas utilizando-se um calorímetro adiabático que atua na faixa de 1,84 K a 10,3 K e visaram o estudo da estrutura elêtrônica dos compostos em termos da densidade de estados eletrônicos à nível de Fermi, bem como da dinâmica da rede cristalina, com o uso dos modelos de Debye e de Einstein para o calor específico. Apresentamos, também, uma descrição do calorímetro, seu funcionamento e as alterações ocorridas em função deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Óleo de soja epoxidado foi curado com os anidridos: dodecenilsuccínico (DDS), maleico (MAL), ftálico (FTA), succínico e hexahidroftálico (CH). As reações foram iniciadas com aminas terciárias tais como trietilamina (TEA), N,N’-dimetilanilina (ARO) e 1,4- diazobiciclo[2,2,2]octano (DABCO). Calorimetria diferencial de varredura (DSC) foi aplicada com êxito no estudo da reação de cura e usada para a determinação dos parâmetros cinéticos e termodinâmicos. Foram estudados os efeitos eletrônicos, os fatores estéreos e a rigidez do segmento diéster formado devido na conversão de grupos anidridos. Foi observado que os anidridos maleico e ftálico reagem mais rápido do que os outros anidridos. A influência do iniciador e da razão molar (anidrido/grupo epóxido) foi igualmente considerada. As propriedades mecânicas e térmicas das resinas epóxi curadas usando TEA como iniciador foram investigadas por análise térmica dinâmico-mecânica (DMTA) e termogravimétrica (TGA). Todas as amostras apresentaram características de materiais termofixos. Os materiais termofixos obtidos a partir de anidridos com estruturas rígidas (FTA, MAL e CH) mostraram alta temperatura de transição vítrea e densidade de reticulação. Quando um excesso de grupos epóxido foi usado (R= 0,5), a temperatura de transição vítrea do material diminuiu. As resinas epóxi exibiram estabilidade térmica até 300ºC. Um comportamento inesperado foi observado para aquelas resinas obtidas com o anidrido dodecenilsuccínico (DDS). A influência do grau de epoxidação do óleo de soja nas propriedades mecânicas e na temperatura de transição vítrea foi investigada. Quanto maior o conteúdo de grupos epóxido, maior é a Tg e a dureza do material. As resinas epóxi preparadas a partir de óleo de soja epoxidado mostram excelente resistência química em NaOH e ácido sulfúrico, mas resistência pobre quando em contato com solventes orgânicos (tolueno, acetona, gasolina e etanol).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de um editor de diagramas hierárquico e colaborativo. Este editor tem por objetivo permitir a especificação colaborativa de circuitos através de representações gráficas. O Blade (Block And Diagram Editor), como foi chamado, permite especificações em nível lógico, usando esquemas lógicos simples, bem como esquemas hierárquicos. Ao final da montagem do circuito, a ferramenta gera uma descrição textual do sistema num formato netlist padrão. A fim de permitir especificações em diferentes níveis de abstração, o editor deve ser estendido a outras formas de diagramas, portanto seu modelo de dados deve ter flexibilidade a fim de facilitar futuras extensões. O Blade foi implementado em Java para ser inserido no Cave, um ambiente distribuído de apoio ao projeto de circuitos integrados, através do qual a ferramenta pode ser invocada e acessada remotamente. O Cave disponibiliza um serviço de colaboração que foi incorporado na ferramenta e através do qual o editor suporta o trabalho cooperativo, permitindo que os projetistas compartilhem dados de projeto, troquem mensagens de texto e, de forma colaborativa, construam uma representação gráfica do sistema. Objetivando fundamentar a proposta da nova ferramenta, é apresentado um estudo sobre ferramentas gráficas para especificação de sistemas, mais especificamente sobre editores de esquemáticos. A partir dessa revisão, do estudo do ambiente Cave e da metodologia de colaboração a ser suportada, fez-se a especificação do editor, a partir da qual implementou-se o protótipo do Blade. Além do editor, este trabalho contribuiu para a construção de uma API, um conjunto de classes Java que será disponibilizado no Cave e poderá ser utilizado no desenvolvimento de novas ferramentas. Foram realizados estudos sobre técnicas de projeto orientado a objeto, incluindo arquiteturas de software reutilizáveis e padrões de projeto de software, que foram utilizados na modelagem e na implementação da ferramenta, a fim de garantir a flexibilidade do editor e a reusabilidade de suas classes. Este trabalho também contribui com um estudo de modelagem de primitivas de projeto de sistemas. No modelo orientado a objetos utilizado no editor, podem ser encontradas construções muito utilizadas em diferentes ferramentas de projeto de sistemas, tais como hierarquia de projeto e instanciação de componentes e que, portanto, podem ser reutilizadas para a modelagem de novas ferramentas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar o impacto proporcionado pelo comércio eletrônico, através do instrumento denominado Business-to-Business, nos Custos de Transação das empresas do setor varejista do Rio Grande do Sul. O trabalho se propõe analisar a abrangência teórica dos Custos de Transação, com uma rápida abordagem sobre a análise da chamada corrente Neo-Institucional. Contudo, para chegar a esta meta principal o estudo vai primeiramente fazer uma incursão pelas abordagens teóricas da teoria dos Custos de Transação, clareando para o leitor, quais os preceitos que fundamentam esta teoria. Na seqüência o trabalho faz uma abordagem sobre os instrumentos eletrônicos de troca de informações, comerciais ou não, posteriormente tratando de maneira mais específica à questão do B2B na economia atual. Neste sentido aborda-se as evidências mundiais da aplicabilidade destes instrumentos. Posteriormente o trabalho faz uma ligação entre os CT e o comércio eletrônico, para determinar corretamente onde o trabalho pretende chegar. Como o trabalho pretende analisar o caso de empresas, nosso estudo primeiramente caracterizou o setor varejista à que as empresas pertencem, para na seqüência apresentar as firmas e os dados levantados n estudo de caso, que nos propusemos verificar. Diante de arranjo que criamos, encerramos o trabalho, apresentando as conclusões verificadas bem como propostas para estudos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.