999 resultados para Diversas aplicações
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.
Resumo:
O crescente aumento pela exigência de funcionalidades na implementação dos atuais sistemas de automação predial, vem provocando um aumento da complexidade de projeto e de gerenciamento desses sistemas. O grande desafio que se apresenta atualmente é como, a partir de dispositivos isolados e subsistemas, conseguir sistemas totalmente integrados, os quais permitam economia no investimento inicial, na operação e na manutenção dos sistemas de automação, garantindo um aumento no desempenho geral da edificação Acredita-se que uma etapa importante para avaliar a real necessidade da integração seja projetar o sistema de automação sem foco em uma tecnologia específica, o que não ocorre atualmente, uma vez que, pela carência de ferramentas de apoio ao projeto, as etapas de especificação e projeto geralmente já estão focadas em uma tecnologia disponível para implementação. Este trabalho busca preencher a lacuna deixada pela carência dessas ferramentas, tendo por finalidade a especificação de um framework orientado a objetos para o desenvolvimento de aplicações de automação predial e residencial que permita modelar estes sistemas de forma independente da tecnologia que ele irá utilizar, possibilitando o mapeamento posterior para a mais adequada ou disponível. Serviram como base para o framework proposto a análise de vários padrões abertos disponíveis para implementação de sistemas de automação predial e a especificação ISO/IEC10746, o modelo de referência para processamento distribuído aberto, usado como suporte a metodologia de projeto proposta. O trabalho também discute o mapeamento dos conceitos definidos para uma arquitetura alvo, apresentado um estudo de caso para validação da metodologia proposta.
Resumo:
Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.
Resumo:
Na sociedade atual, o conhecimento é um novo fator de produção que se agrega aos já tradicionais fatores de terra, mão de obra e capital financeiro. Porém, o conhecimento não pode ser herdado ou concedido. Diferente dos outros fatores, quanto mais o conhecimento é compartilhado, mais ele aumenta; quanto mais utilizado maior é o seu valor. Torna-se fundamental para as organizações, dependentes desse fator, capturar os ativos de conhecimento utilizados por seus colaboradores. Seu objetivo é transformar esse conhecimento em capital intelectual. Os meios para atingir esses objetivos são encontrados na Gestão do Conhecimento. A Gestão de Conhecimento corresponde ao conjunto de ações de uma organização para criar, adquirir, compartilhar e utilizar ativos de conhecimento, a fim de auxiliar na geração de idéias, solução de problemas e tomada de decisões. Essas ações são alcançadas através de metodologias, processos, técnicas, tecnologias e ferramentas. Este trabalho apresenta uma visão geral sobre as dimensões que influenciam a Gestão do Conhecimento – cultura e estrutura organizacional, estratégia, recursos humanos, aprendizado com o ambiente, avaliação permanente e tecnologia da informação. Embora todas as dimensões sejam consideradas, este trabalho enfatiza a tecnologia da informação Se o conhecimento e a Gestão do Conhecimento são tão importantes para as empresas em geral, ocupam um papel duplamente relevante nas empresas de tecnologia da informação, pois essas são, ao mesmo tempo, usuárias e fornecedoras. Foram ainda estudadas as diversas abordagens para tratar a Gestão de Conhecimento: a transferência do conhecimento entre trabalhadores, os ciclos do conhecimento segundo diferentes autores; e as principais ações e ferramentas que incentivam e implementam Gestão de Conhecimento em uma organização. O objetivo deste trabalho é propor um ambiente tecnológico capaz de oferecer suporte à Gestão do Conhecimento para o caso especial de uma empresa de tecnologia da informação: A SICREDI Serviços. A proposta apresentada considera o portal do conhecimento como o ambiente de sustentação e convergência para outras ferramentas tecnológicas, quais sejam: ferramentas de colaboração, infra-estrutura de ambiente da aplicação e aplicações do conhecimento. Considera-se que o projeto apresentado contempla as necessidades de todas as Dimensões da Gestão do Conhecimento, respeitando-se aspectos fundamentais como uso adequado da tecnologia e suporte às ações de Gestão do Conhecimento.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
O crescente avanço nas mais diversas áreas da eletrônica, desde instrumentação em baixa freqüência até telecomunicações operando em freqüências muito elevadas, e a necessidade de soluções baratas em curto espaço de tempo que acompanhem a demanda de mercado, torna a procura por circuitos programáveis, tanto digitais como analógicos, um ponto comum em diversas pesquisas. Os dispositivos digitais programáveis, que têm como grande representante os Field Programmable Gate Arrays (FPGAs), vêm apresentando um elevado e contínuo crescimento em termos de complexidade, desempenho e número de transistores integrados, já há várias décadas. O desenvolvimento de dispositivos analógicos programáveis (Field Programmable Analog Arrays – FPAAs), entretanto, esbarra em dois pontos fundamentais que tornam sua evolução um tanto latente: a estreita largura de banda alcançada, conseqüência da necessidade de um grande número de chaves de programação e reconfiguração, e a elevada área consumida por componentes analógicos como resistores e capacitores, quando integrados em processos VLSI Este trabalho apresenta uma proposta para aumentar a faixa de freqüências das aplicações passíveis de serem utilizadas tanto em FPAAs comerciais quanto em outros FPAAs, através da utilização de uma interface de translação e seleção de sinais, mantendo características de programabilidade do FPAA em questão, sem aumentar em muito sua potência consumida. A proposta, a simulação e a implementação da interface são apresentadas ao longo desta dissertação. Resultados de simulação e resultados práticos obtidos comprovam a eficácia da proposta.
Resumo:
Por muito tempo, os programas de qualidade e gestão vêm dominando o cenário de soluções para a melhoria das organizações. Nesse contexto, têm sido constantes os modismos e, ao mesmo tempo, o consumo de muitas soluções. E o mercado parece se nutrir desses pacotes. De pacote em pacote, a gestão nas companhias vem se desenvolvendo e se especializando e, junto como isso, os métodos e técnicas da boa gestão. A gestão de riscos, especificamente, vem nesse contexto. Apresenta-se como uma solução em gestão, mas parece se estabelecer como ponto de convergência e de influência na otimização e garantia de processos produtivos, de gestão e de suporte, abrangendo uma gama de possibilidades em diversas disciplinas do mundo empresarial, desde finanças até os aspectos de fraudes e distúrbios cotidianos. Na sequência da gestão de riscos, vem a gestão de crises. Esta, o hemisfério dos riscos transformados em impactos verdadeiros e com danos visíveis para a organização. A gestão de crises pressupõe a gestão dos riscos consumados e que, claramente, afetam a organização e seu contexto, tanto interno quanto externo. No ponto final dessa lógica, aparece a confiança como aquilo que sela o pacto da organização e seus stakeholders, como resultado da boa ou má gestão de riscos e crises. Este estudo é, então, sobre riscos, crises e confiança e sobre o entendimento de como a gestão sobrepõe esses elementos e como isso se aplica às organizações, especificamente a uma grande organização do mercado brasileiro. Após revisão bibliográfica, é feita uma pesquisa para se analisar como está sendo a aplicação dos conceitos e práticas de riscos e crises em uma grande empresa, entrevistando-se o principal executivo da companhia responsável pela gestão de riscos na área de segurança da informação e outro responsável pela gestão de crises. É feita uma pesquisa para se entender a percepção de empregados e gerentes da companhia estudada sobre os conceitos e práticas de gestão de riscos e crises e suas aplicações na companhia. Também é feita uma abordagem sobre confiança, extrapolando-se esse conceito para uma idéia de confiabilidade dessas práticas e propondo uma forma de medir essa confiabilidade, identificada como uma lacuna na gestão de crises. Ao final, é feita uma análise sobre o quanto a aplicação desses conceitos e práticas são sistemáticos ou não, de acordo com as hipóteses e suposições definidas, constatando-se o 9 caráter operacional e a aplicação recente das práticas, um tanto deslocada do modelo de referência proposto para o estudo e com pouca visibilidade por parte dos empregados, principalmente no que tange a percepção de efetividade das práticas adotadas.
Resumo:
Esta pesquisa teve por objetivo geral discutir as abordagens teóricas do Patrimônio Líquido em função das diversas espécies de entidades ou empresas. Como objetivos específicos, procuramos responder às seguintes questões: l- Que abordagem teórica do Patrimônio Líquido e mais comumente aplicada nas diversas entidades no Brasil? 2- Qual o nível de conhecimento, por parte dos profissionais de contabilidade das empresas integrantes da pesquisa, a respeito das diversas formas de abordagens teóricas do Patrimônio Líquido? 3- Qual a utilidade das abordagens teóricas ao Patrimônio Líquido na vida das sociedades, ou das firmas individuais e/ou nas subsidiárias integrais? Ainda, é oportuno dizer que estudou-se o fluxo de informações contábeis associado aos diversos tipos de entidades e as diferentes espécies de abordagens teóricas ao Patrimônio Líquido. Citado fluxo foi investigado tanto do lado dos usuários que solicitam as informações, quanto dos profissionais de contabilidade que produzem as informações contábeis.
Resumo:
O presente trabalho tem por finalidade a aplicaçao de principios teóricos e experimentais de Jean Piaget ao ensino da matemática. Considerando-se as implicações educacionais da teoria, fizemos uma proposta de sistematizar uma metodologia de ensino que tem por fim a ativaçao das estruturas mentais pelo ensino da matemática. Este trabalho, em resumo, constitui uma sintese da teoria do desenvolvimento cognitivo de Piaget, e o relato de uma pesquisa experimental que teve por fim avaliar os efeitos de uma metodologia proposta para estruturas mentais na criança. Com esta finalidade, foram urilizados dois grupos de trabalho constituídos intencionalmente, um experimental e o outro de controle, ambos com 21 sujeitos, alunos da 2a série do 1o grau de escolas particulares da cidade de Goiainia (GO), de classe social média supeior e média inferior. Em ambos os grupos se realizou o pré-teste. A metodologia de ensino de fundamentação piagetiana foi utilizada para o ensino da matemática no grupo experimental, e no grupo de controle utilizou-se para o ensino da matemática uma metodologia considerada tradicional, durante o período de um semestre letivo. Após o trabalho, foi realizado o pós-teste em ambos os grupos e, um estudo comparativo dos resultados coletados permitiu verificar a eficiência da metodologia de ensino proposta e a fecundidade do ensino da matemática numa perspectiva piagetiana.
Resumo:
This research had for objective to fammi1iarize the user of accounting information to an efficient instrument in the modern financiaI ana1izes of eva1uation of entities: the Statement of Sources and App1ication of Resources. This statement goes on, ti11 today, to be 1ess used by the financiaI ana1ists because it is not understood concerning its objectives, concepts of Resources and shares of to bui1d and disc10sure the statement. During the period of time between 1980 and 1985 the Brazi1's economy spent of a situation of recession to another of prosperity and growth. In the first four years of the historiaI series, the country had a recession period and it was kept unti1 the end of 1983: the national private company increased its debt degree and decreased its 1iquidity. After 1984 the economy began to grow and that was pushed by the export entities: the entities decreased its debt degree and increased its 1iquidity. The Statement of Sources and Uses of Resources has been bui1t and pub1ished in United States since the 1ast 50 years of nineteenth century, and it has been known as Statement of Funds. In Brazi1 it has just introducted after the Security Exchange Law in 1976 that put 1imits for obrigatority to disc10sure by the companies. This 1aw described, summari1y, the objective, cQII1position and manner to disc1osure. The ma in objective of the statement is to show the financiaI position of the entity. This objective envolves aspects relationed to the long-term's strategy of the company because it disclosure the policy of application of resources in long-term assets, the policy of dividends that has been used, and the structure of resources provided by long-t:erm financing, the resources of the operations, and so on. There are several means of Resources. The concept more used in Brazil is Working Capital, till for orientation of the law. Concepts as Cash and Equivalent-Cash and Net Realizable Assets can be more informatives to the users because they show informations with better complexity, including informations concerning to the short-term. Concerning to the building methods, there are three that are known: the Transations Analizing method, the T-Account method and the Work-Sheet method. AlI of them are efficient, but it's recomendable that the method used can be in accordance with the disclosured formato The statement, despite of others statements, fell \
Resumo:
Este trabalho é uma síntese da transformada de Fourier na forma discreta e uma de suas principais aplicações à computação gráfica, a restauração de imagens corrompidas por movimento, seja do aparelho óptico ou da própria imagem.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.
Resumo:
Neste trabalho foi observado um rearranjodiotrópico do composto quiral (+)-1 o que levou na sua racemização. Verificou-se que esse processoé termicamente permitido pela simetria dos orbitais de fronteira HOMO-LUMO. Posteriormente, constatou-se que o rearranjo não era somente governado pela temperatura, mas também pelas condições reacionais, respeitada a simetria de orbitais. A partir da obtenção dos precursores quirais (−)-40 e (−)-41 através de reação de transesterificação de (±)-40 com acetato de vinila catalisada pela lípase da Cândida rugosa, realizou-se a síntese de uma série de compostos quirais bicíclicos 1,3 di-substituídos, dióis e aminoálcoois. Estes bicíclicos quirais foram testados como indutores quirais na reação de adição enantioseletiva de dietilzinco ao benzaldeído. Observou-se, no caso dos aminoálcoois, que a posição do estereocentro C-O tem uma importância fundamental no processo, determinando o grau de enantioseletividade da reação. Sintetizou-se o aminoálcool (+)-63 o qual foi utilizado na redução enantioseletiva de cetonas pró-quirais através da síntese, in situ, de sua oxazaborolidina.