864 resultados para Quinolonas: Aplicações biomédicas
Resumo:
Avaliação através da teoria de opções tem gerado diversos estudos acadêmicos na área de finanças, resultado da versatilidade das opções como instrumento financeiro e da capacidade de avaliar diversos ativos que aparentemente não são opções. Esta monografia consiste em uma revisão bibliográfica sobre a utilização da Teoria de Opções em avaliações de decisões de investimentos, e tem como objetivo demonstrar sua aplicação em situações reais na cadeia produtiva do complexo soja, destacando a praticidade e limitações da própria teoria.
Resumo:
O conceito de parcialidade e importante em diversas áreas como a Matemática e a Ciência da Computação; ele pode ser utilizado, por exemplo, para expressar computações que não terminam e para definir funções recursivas parciais. Com rela cão a grafos, categorias de homomorfismos parciais são comuns (por exemplo, em gramáticas de grafos com a técnica de single-pushout). Este trabalho propõe uma abordagem diferente: a parcialidade é usada na estrutura interna dos objetos (não nos morfismos).Istoéfeito utilizando uma extensão do conceito de Categoria das Setas, chamada de Categoria das Setas Parciais. E definida entãoa categoria Grp de grafos parciais(tais que arcos podem possuir ou não vértices de origem e/ou destino) e homomorfismos totais.A generalização deste modelo resulta em categorias de grafos parciais internos.Émostrado que Grp é bicompleta e, se C é um topos, a categoria dos grafos parciais internos a C é cocompleta. Grafos parciais podem ser utilizados para definir modelos computacionais tais como autômatos. Uma categoria de Autômatos Parciais, denominada Autp, é construída a partir da categoria de Grafos Parciais. Usando uma extensão de composição de spans de grafos para autômatos, chamada de Composição de Transições, e possível definir as computações de autômatos. Brevemente, uma composição de transi cões de dois autômatos parciais resulta em um autômato parcial onde cada transição representa um caminho de tamanho dois (entre vértices), tal que a primeira metade é uma transição do primeiro autômato e a segunda metade é uma transição do segundo. É possível compor um autômato consigo mesmo diversas vezes; no caso de n sucessivas composições de transições, pode-se obter as palavras da linguagem aceita pelo autômato que necessitam de n+1 passos de computação nos arcos que não possuem origem e nem destino definidos do autômato parcial resultante.
Resumo:
Trata da aferição e análise da eficiência econômica e administrativa do ISS na Região Metropolitana de São Paulo (RMSP). Caracteriza o ISS, sob enfoque administrativo, econômico, legal e político, bem como a RMSP, do ponto de vista político, geográfico e econômico. Analisa as estatísticas de arrecadação tributária da mencionada região, bem como dos municípios que a compõem. Aponta as vantagens de se ter um sistema de arrecadação tributária eficiente, além de sugerir pesquisas complementares sobre o referido assunto.
Resumo:
O crescente aumento pela exigência de funcionalidades na implementação dos atuais sistemas de automação predial, vem provocando um aumento da complexidade de projeto e de gerenciamento desses sistemas. O grande desafio que se apresenta atualmente é como, a partir de dispositivos isolados e subsistemas, conseguir sistemas totalmente integrados, os quais permitam economia no investimento inicial, na operação e na manutenção dos sistemas de automação, garantindo um aumento no desempenho geral da edificação Acredita-se que uma etapa importante para avaliar a real necessidade da integração seja projetar o sistema de automação sem foco em uma tecnologia específica, o que não ocorre atualmente, uma vez que, pela carência de ferramentas de apoio ao projeto, as etapas de especificação e projeto geralmente já estão focadas em uma tecnologia disponível para implementação. Este trabalho busca preencher a lacuna deixada pela carência dessas ferramentas, tendo por finalidade a especificação de um framework orientado a objetos para o desenvolvimento de aplicações de automação predial e residencial que permita modelar estes sistemas de forma independente da tecnologia que ele irá utilizar, possibilitando o mapeamento posterior para a mais adequada ou disponível. Serviram como base para o framework proposto a análise de vários padrões abertos disponíveis para implementação de sistemas de automação predial e a especificação ISO/IEC10746, o modelo de referência para processamento distribuído aberto, usado como suporte a metodologia de projeto proposta. O trabalho também discute o mapeamento dos conceitos definidos para uma arquitetura alvo, apresentado um estudo de caso para validação da metodologia proposta.
Resumo:
Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.
Resumo:
Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.
Resumo:
O presente trabalho tem por finalidade a aplicaçao de principios teóricos e experimentais de Jean Piaget ao ensino da matemática. Considerando-se as implicações educacionais da teoria, fizemos uma proposta de sistematizar uma metodologia de ensino que tem por fim a ativaçao das estruturas mentais pelo ensino da matemática. Este trabalho, em resumo, constitui uma sintese da teoria do desenvolvimento cognitivo de Piaget, e o relato de uma pesquisa experimental que teve por fim avaliar os efeitos de uma metodologia proposta para estruturas mentais na criança. Com esta finalidade, foram urilizados dois grupos de trabalho constituídos intencionalmente, um experimental e o outro de controle, ambos com 21 sujeitos, alunos da 2a série do 1o grau de escolas particulares da cidade de Goiainia (GO), de classe social média supeior e média inferior. Em ambos os grupos se realizou o pré-teste. A metodologia de ensino de fundamentação piagetiana foi utilizada para o ensino da matemática no grupo experimental, e no grupo de controle utilizou-se para o ensino da matemática uma metodologia considerada tradicional, durante o período de um semestre letivo. Após o trabalho, foi realizado o pós-teste em ambos os grupos e, um estudo comparativo dos resultados coletados permitiu verificar a eficiência da metodologia de ensino proposta e a fecundidade do ensino da matemática numa perspectiva piagetiana.
Resumo:
This research had for objective to fammi1iarize the user of accounting information to an efficient instrument in the modern financiaI ana1izes of eva1uation of entities: the Statement of Sources and App1ication of Resources. This statement goes on, ti11 today, to be 1ess used by the financiaI ana1ists because it is not understood concerning its objectives, concepts of Resources and shares of to bui1d and disc10sure the statement. During the period of time between 1980 and 1985 the Brazi1's economy spent of a situation of recession to another of prosperity and growth. In the first four years of the historiaI series, the country had a recession period and it was kept unti1 the end of 1983: the national private company increased its debt degree and decreased its 1iquidity. After 1984 the economy began to grow and that was pushed by the export entities: the entities decreased its debt degree and increased its 1iquidity. The Statement of Sources and Uses of Resources has been bui1t and pub1ished in United States since the 1ast 50 years of nineteenth century, and it has been known as Statement of Funds. In Brazi1 it has just introducted after the Security Exchange Law in 1976 that put 1imits for obrigatority to disc10sure by the companies. This 1aw described, summari1y, the objective, cQII1position and manner to disc1osure. The ma in objective of the statement is to show the financiaI position of the entity. This objective envolves aspects relationed to the long-term's strategy of the company because it disclosure the policy of application of resources in long-term assets, the policy of dividends that has been used, and the structure of resources provided by long-t:erm financing, the resources of the operations, and so on. There are several means of Resources. The concept more used in Brazil is Working Capital, till for orientation of the law. Concepts as Cash and Equivalent-Cash and Net Realizable Assets can be more informatives to the users because they show informations with better complexity, including informations concerning to the short-term. Concerning to the building methods, there are three that are known: the Transations Analizing method, the T-Account method and the Work-Sheet method. AlI of them are efficient, but it's recomendable that the method used can be in accordance with the disclosured formato The statement, despite of others statements, fell \
Resumo:
Este trabalho é uma síntese da transformada de Fourier na forma discreta e uma de suas principais aplicações à computação gráfica, a restauração de imagens corrompidas por movimento, seja do aparelho óptico ou da própria imagem.
Resumo:
Neste trabalho foi observado um rearranjodiotrópico do composto quiral (+)-1 o que levou na sua racemização. Verificou-se que esse processoé termicamente permitido pela simetria dos orbitais de fronteira HOMO-LUMO. Posteriormente, constatou-se que o rearranjo não era somente governado pela temperatura, mas também pelas condições reacionais, respeitada a simetria de orbitais. A partir da obtenção dos precursores quirais (−)-40 e (−)-41 através de reação de transesterificação de (±)-40 com acetato de vinila catalisada pela lípase da Cândida rugosa, realizou-se a síntese de uma série de compostos quirais bicíclicos 1,3 di-substituídos, dióis e aminoálcoois. Estes bicíclicos quirais foram testados como indutores quirais na reação de adição enantioseletiva de dietilzinco ao benzaldeído. Observou-se, no caso dos aminoálcoois, que a posição do estereocentro C-O tem uma importância fundamental no processo, determinando o grau de enantioseletividade da reação. Sintetizou-se o aminoálcool (+)-63 o qual foi utilizado na redução enantioseletiva de cetonas pró-quirais através da síntese, in situ, de sua oxazaborolidina.
Resumo:
As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.
Resumo:
Os bancos comerciais têm como principais fontes de recursos os depósitos à vista, poupança e depósitos a prazo. Estes passivos têm liquidez diária, ou seja, podem ser sacados a qualquer momento por seus titulares. O gerenciamento do resultado e risco destes passivos sem vencimento é uma difícil tarefa para as instituições financeiras. Este estudo busca identificar o preço de transferência destes passivos, em especial das aplicações automáticas. Como resultado, são apresentados preços de transferência para a parcela estável e para a parcela instável das aplicações automáticas e a receita de funding paga pela tesouraria aos canais comerciais . A fórmula utilizada para o cálculo do preço de transferência de passivos sem vencimento considera as regras de exigibilidade do BACEN, e pode ser utilizada por qualquer instituição financeira comercial do Brasil. Para a identificação da maturidade foi utilizado o modelo de Nonmaturation e o preço de transferência é calculado pelo modelo de Matched Maturity Marginal Funds Transfer Price (MMMFTP).
Resumo:
A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo
Resumo:
Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.