40 resultados para eletrônicos

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A gestão do risco de crédito é um tema que vem chamando a atenção dos Administradores, sendo considerado um instrumento gerencial importante no processo competitivo. Este estudo tem como objetivo identificar como as empresas que comercializam eletro-eletrônicos, na cidade de Caxias do Sul, estão procedendo no processo de concessão de crédito aos seus clientes. O estudo descritivo realizado em vinte grupos econômicos que atuam nesse mercado, representando trinta e sete estabelecimentos comerciais, evidenciou alguns problemas nos procedimentos realizados pelas empresas pesquisadas. Como por exemplo, a baixa utilização de sistemas de informação, como apoio ao processo de tomada de decisão. Há pouca aplicação de procedimentos de monitoramento pós-concessão de crédito. Não existe um indicador de inadimplência no segmento pesquisado; as empresas não têm comparativo para verificar seu desempenho. Além disso, poucas empresas possuem indicador de inadimplência, as que possuem calculam de forma similar. Outro fator, refere-se à capacitação dos profissionais responsáveis pela tomada de decisão de crédito. As entrevistas mostraram estas deficiências. As empresas pesquisadas ainda não incorporaram as técnicas de gestão do risco de crédito, desenvolvida pelo setor bancário. Poucas empresas possuem modelos de credit scoring, ou modelos sofisticados, que trabalhem o grande número de variáveis de seus cadastros. Suas decisões estão baseadas nos Cs do crédito, caracterizado pela análise tradicional de crédito, com ênfase no julgamento humano. Através da descrição do processo de concessão de crédito, este estudo procura dar uma visão mais ampla do assunto, evidenciando a implantação de políticas de crédito que explicitem os padrões de concessão; sendo um aliado na busca da redução de riscos que as empresas correm ao conceder crédito a seus clientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata sobre um assunto relativamente novo, mas com uma importância cada vez maior no desenvolvimento de produtos. Trata-se do Projeto para o Meio-Ambiente (Design for Environment - DFe). São analisados os aspectos do DFe relacionados com o desenvolvimento de produtos eletro-eletrônicos, abrangendo métricas ambientais, práticas de projeto e métodos de análise de produtos. Estes conhecimentos são aplicados no desenvolvimento de um conjunto de métricas ambientais e de uma metodologia de avaliação ambiental de produtos, a serem adotadas pela Springer Carrier SA no desenvolvimento de seus novos produtos. Esta ferramenta foi criada através da análise de uma ferramenta anterior, desenvolvida nos Estados Unidos, mas incorporou sugestões presentes na literatura e a experiência prática acumulada pelo autor. Este trabalho trata sobre um assunto relativamente novo, mas com uma importância cada vez maior no desenvolvimento de produtos. Trata-se do Projeto para o Meio-Ambiente (Design for Environment - DFe). São analisados os aspectos do DFe relacionados com o desenvolvimento de produtos eletro-eletrônicos, abrangendo métricas ambientais, práticas de projeto e métodos de análise de produtos. Estes conhecimentos são aplicados no desenvolvimento de um conjunto de métricas ambientais e de uma metodologia de avaliação ambiental de produtos, a serem adotadas pela Springer Carrier SA no desenvolvimento de seus novos produtos. Esta ferramenta foi criada através da análise de uma ferramenta anterior, desenvolvida nos Estados Unidos, mas incorporou sugestões presentes na literatura e a experiência prática acumulada pelo autor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foi estudada a síntese química do poli (5-amino 1-naftol) (PAN) em presença de diferentes agentes dopantes e meios reacionais. Os polímeros obtidos foram caracterizados pelas técnicas espectroscópicas de infravermelho, Raman, por microscopia eletrônica de varredura, por voltametria cíclica, temogravimetria, medidas de condutividade elétrica e grau de aderência. A estrutura do PAN obtido apresentou-se semelhante aos resultados obtidos para a PAni. Filmes de PAN sintetizados em meio aquoso ácido sobre substratos de platina apresentaram eletroatividade e estabilidade à ciclagem quando. Filmes preparados a partir de PAN sintetizado em presença dos ácidos dopantes dinonil naftalêno disulfônico (DNNDSA), dinonil naftalêno sulfônico (DNNSA) e dodecil benzeno sulfônico (DBSA), apresentaram-se mais homogêneos e mais aderentes que os sintetizados em ausência desses. A aplicação na construção de dispositivos eletrocrômicos e de chaveamento apresentou-se inicialmente viável para todas as amostras testadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propõe-se um sistema para medição de torque em dispositivos girantes, que utiliza extensômetros de resistência elétrica colados nos próprios elementos constituintes do arranjo mecânico sob análise. Um conjunto de circuitos eletrônicos foi especialmente desenvolvido para o sensoreamento das pequenas deformações que ocorrem nos disposotivos girantes. O sistema opera sem contato eletro-mecânico entre a parte estacionária e a parte girante. Para tanto desenvolveu-se também uma metodologia de projeto e construção de transformadores rotativos que são utilizados para transferência da energia que alimenta os circuitos eletrônicos solidários ao elemento mecânico instrumentado. Também foi necessário utilizar um transmissor em freqüência modulada do sinal elétrico proporcional ao torque medido. Uma análise comparativa, dos resultados obtidos entre os sistemas existentes e aqueles alcançados com a técnica proposta neste trabalho, demonstra sua aplicabilidade em diversas situações práticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos os resultados experimentais da medida do calor específico dos compostos Heusler da série Ni2TA1, onde T =Ti, Zr,Hf,V,Nb, Ta. Estas medidas foram feitas utilizando-se um calorímetro adiabático que atua na faixa de 1,84 K a 10,3 K e visaram o estudo da estrutura elêtrônica dos compostos em termos da densidade de estados eletrônicos à nível de Fermi, bem como da dinâmica da rede cristalina, com o uso dos modelos de Debye e de Einstein para o calor específico. Apresentamos, também, uma descrição do calorímetro, seu funcionamento e as alterações ocorridas em função deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Óleo de soja epoxidado foi curado com os anidridos: dodecenilsuccínico (DDS), maleico (MAL), ftálico (FTA), succínico e hexahidroftálico (CH). As reações foram iniciadas com aminas terciárias tais como trietilamina (TEA), N,N’-dimetilanilina (ARO) e 1,4- diazobiciclo[2,2,2]octano (DABCO). Calorimetria diferencial de varredura (DSC) foi aplicada com êxito no estudo da reação de cura e usada para a determinação dos parâmetros cinéticos e termodinâmicos. Foram estudados os efeitos eletrônicos, os fatores estéreos e a rigidez do segmento diéster formado devido na conversão de grupos anidridos. Foi observado que os anidridos maleico e ftálico reagem mais rápido do que os outros anidridos. A influência do iniciador e da razão molar (anidrido/grupo epóxido) foi igualmente considerada. As propriedades mecânicas e térmicas das resinas epóxi curadas usando TEA como iniciador foram investigadas por análise térmica dinâmico-mecânica (DMTA) e termogravimétrica (TGA). Todas as amostras apresentaram características de materiais termofixos. Os materiais termofixos obtidos a partir de anidridos com estruturas rígidas (FTA, MAL e CH) mostraram alta temperatura de transição vítrea e densidade de reticulação. Quando um excesso de grupos epóxido foi usado (R= 0,5), a temperatura de transição vítrea do material diminuiu. As resinas epóxi exibiram estabilidade térmica até 300ºC. Um comportamento inesperado foi observado para aquelas resinas obtidas com o anidrido dodecenilsuccínico (DDS). A influência do grau de epoxidação do óleo de soja nas propriedades mecânicas e na temperatura de transição vítrea foi investigada. Quanto maior o conteúdo de grupos epóxido, maior é a Tg e a dureza do material. As resinas epóxi preparadas a partir de óleo de soja epoxidado mostram excelente resistência química em NaOH e ácido sulfúrico, mas resistência pobre quando em contato com solventes orgânicos (tolueno, acetona, gasolina e etanol).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar o impacto proporcionado pelo comércio eletrônico, através do instrumento denominado Business-to-Business, nos Custos de Transação das empresas do setor varejista do Rio Grande do Sul. O trabalho se propõe analisar a abrangência teórica dos Custos de Transação, com uma rápida abordagem sobre a análise da chamada corrente Neo-Institucional. Contudo, para chegar a esta meta principal o estudo vai primeiramente fazer uma incursão pelas abordagens teóricas da teoria dos Custos de Transação, clareando para o leitor, quais os preceitos que fundamentam esta teoria. Na seqüência o trabalho faz uma abordagem sobre os instrumentos eletrônicos de troca de informações, comerciais ou não, posteriormente tratando de maneira mais específica à questão do B2B na economia atual. Neste sentido aborda-se as evidências mundiais da aplicabilidade destes instrumentos. Posteriormente o trabalho faz uma ligação entre os CT e o comércio eletrônico, para determinar corretamente onde o trabalho pretende chegar. Como o trabalho pretende analisar o caso de empresas, nosso estudo primeiramente caracterizou o setor varejista à que as empresas pertencem, para na seqüência apresentar as firmas e os dados levantados n estudo de caso, que nos propusemos verificar. Diante de arranjo que criamos, encerramos o trabalho, apresentando as conclusões verificadas bem como propostas para estudos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A competitividade do mercado tem levado empresas, pressionadas por concorrentes e com recursos limitados, a tomarem ações imediatas para garantir sua sobrevivência. Os escassos recursos materiais e humanos disponíveis necessitam ser investidos na operacionalização de estratégias bem planejadas que possam garantir a competitividade no curto, médio e longo prazos. Um erro no posicionamento estratégico pode comprometer de forma bastante significativa uma organização. Este trabalho apresenta o estudo de caso efetuado em uma empresa de componentes eletrônicos sobre a proposta de utilização do Planejamento Estratégico na preparação de um modelo geral de mudança de estrutura para Implantação de um Sistema da Qualidade baseado na Norma ISO Série 9000. Este estudo serve como alerta aos administradores quanto aos riscos e perdas a que podem estar se expondo quando alocam tempo, capital e pessoas, para somente obter o certificado ISO, sem enfatizar o aprendizado decorrente desta certificação. A implantação de um sistema da qualidade passa a ser visto como uma ferramenta e não só com um conjunto de normas que permitem obter um certificado. O estudo possibilitou a constatação, na prática, das várias fases que conduzem uma empresa a introduzir em suas atividades o Sistema da Qualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o aumento de informações disponíveis e das possibilidades de fazer comércio por meios eletrônicos, aumenta a complexidade de algumas tarefas, como comprar. Um dos possíveis caminhos para diminuir essa complexidade é dotar programas de computadores com conhecimentos sobre a realização de tais tarefas, incluindo como tomar decisões. Esta dissertação versa sobre a utilização de agentes de software nas empresas, que são programas de computadores delegados para a realização de funções específicas. Além de uma revisão sobre o atual uso de tais tecnologias, apresenta-se uma possível aplicação na área de Compras para uma empresa real. Para modelar o sistema proposto, utilizou-se uma extensão da Unified Modeling Language (UML), a Agent UML, que objetiva a adequação da primeira para representar sistemas multiagentes. As dificuldades encontradas para modelagem são uma discussão adicional, bem como as sugestões. Outras contribuições do presente trabalho são as apresentações de mecanismos de decisão e de negociação para a Função Compras, inspirados em funções de valor e na negociação colaborativa. Encerra-se, apontando algumas futuras direções, incentivando reflexões posteriores sobre este tema pioneiro na Escola de Administração da Universidade Federal do Rio Grande do Sul.