669 resultados para habilidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As condições atuais do mercado fazem com que as empresas tenham que desenvolver competências para lidar com a tecnologia de produtos e processos e, principalmente, com o ritmo de evolução da tecnologia, ou seja, com as mudanças tecnológicas que ocorrem no seu setor de atividade. O objetivo deste trabalho é identificar e avaliar a capacidade tecnológica de três PMEs de setores tradicionais. Para tanto, será estudada a indústria de autopeças, um setor tradicional do ponto de vista tecnológico. Considerando que capacidade tecnológica seja a aptidão para lidar com a tecnologia, entende-se que as empresas podem ter habilidade para assimilar, modificar ou gerar tecnologia. A problemática da avaliação de PMEs é abordada sob três fatores: base tecnológica, papel do empresário na escolha de estratégia tecnológica voltada à inovação e evidência de esforços inovativos, sejam eles mudanças significativas ou simples processos de resolução de problemas. A pesquisa mostrou que as empresas comportam-se de maneira variada no que se refere aos mecanismos de gestão e ao desempenho tecnológico. A partir da análise, foi possível constatar algumas características da empresa mais inovadora, as quais são vistas como prováveis “sinalizadores” da capacidade de modificar e adaptar tecnologias. Alguns destes sinais são: 1) diversos exemplos de mudanças em produtos e processos, sejam eles mais ou menos significativos; 2) esforços de atualização tecnológica, perceptíveis através da ênfase dada à interface externa (tipo de relacionamento, intensidade e continuidade dos contatos com clientes, fornecedores, empresas, instituições), à geração e à difusão de conhecimento (aprendizagem); e 3) preocupação em ampliar a sua capacidade para resolver e prever problemas, desenvolvendo mecanismos próprios baseados em interação, participação e autonomia das pessoas, inclusive, e principalmente, daqueles que realizam as atividades produtivas. Este tipo de conduta fica evidente em uma base tecnológica forte, noestilo gerencial do empresário (inovador) e na familiaridade com a realização de mudanças na tecnologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apomorfina é um potente agonista dopaminérgico D1/D2, utilizada no tratamento da Doença de Parkinson. Em maio de 2001, apomorfina HCl foi aprovada para utilização no tratamento da disfunção erétil, aumentando o número de usuários potenciais deste fármaco. Estudos sugerem que apomorfina e outros agonistas dopaminérgicos podem induzir neurotoxicidade mediada por seus derivados de oxidação semiquinonas e quinonas, os quais levam à formação de espécies reativas de oxigênio. Os objetivos do presente estudo foram de avaliar os possíveis efeitos genotóxicos, antimutagênicos, citotóxicos de apomorfina (APO) e de um produto derivado de sua oxidação, 8-oxo-apomorfina-semiquinona (8-OASQ), utilizando o teste Salmonella/microssoma, Mutoxiteste WP2, ensaio Cometa e teste de sensibilidade em Saccharomyces cerevisiae. Em adição, foram avaliados os efeitos de APO e 8-OASQ sobre a memória e o comportamento em ratos (tarefa de esquiva inibitória, comportamento e habituação ao campo aberto) e o comportamento estereotipado em camundongos. Ambos compostos induziram mutações por erro no quadro de leitura em linhagens de S. typhimurium TA97 e TA98, sendo que 8-OASQ foi cerca de duas vezes mais mutagênico que APO, na ausência de S9 mix. Para linhagens que detectam mutágenos oxidantes, 8-OASQ foi mutagênico, enquanto APO foi antimutagênico, inibindo a mutagenicidade induzida por H2O2 e t-BOOH em linhagens de S. typhimurium e derivadas WP2 de E. coli. O S9 mix inibiu todos os efeitos mutagênicos, provavelmente retardando a oxidação de APO ou devido à conjugação de APO e seus produtos de autoxidação, como 8-OASQ, a proteínas do S9. Em testes de sensibilidade com S. cerevisiae, APO foi citotóxica para algumas linhagens apenas nas doses mais altas. Para 8-OASQ este efeito foi dose-depende para todas as linhagens, sendo que as mutantes deficientes em catalase (ctt1), superóxido dismutase (sod1) e yap1 foram as mais sensíveis. APO protegeu as linhagens de S. cerevisiae contra danos oxidativos induzidos por concentrações altas de H2O2 e t-BOOH, enquanto que 8-OASQ aumentou os efeitos pró-oxidantes e induziu respostas adaptativas para aqueles agentes. APO e 8-OASQ induziram efeitos de prejuízo na memória de curta e de longa duração em uma tarefa de esquiva inibitória em ratos. APO, mas não 8-OASQ, prejudicou a habituação a um novo ambiente de forma dose-dependente. Os efeitos de prejuízo de memória não foram atribuídos à redução da nocicepção ou outra alteração inespecífica de comportamento, visto que nem APO e nem 8-OASQ afetaram a reatividade ao choque nas patas e comportamento durante a exploração ao campo aberto. Os resultados sugerem, portanto, que os produtos de oxidação de dopamina ou de agonistas dopaminérgicos podem induzir deficiências cognitivas.APO, mas não 8-OASQ, induziu comportamento estereotipado em camundongos machos CF-1. A falta da indução deste comportamento por 8-OASQ sugere que a autoxidação de APO causa a perda na sua habilidade de ligar-se a receptores dopaminérgicos. Pelo ensaio Cometa, 8-OASQ provocou danos ao DNA do tecido cerebral de camundongos sacrificados 1 h e 3 h, mas não 24 h após sua administração, enquanto que APO induziu um fraco aumento da freqüência de dano ao DNA 3 h após o tratamento. Esses resultados sugerem que ambos APO e 8-OASQ desempenham uma atividade genotóxica no tecido cerebral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, a sociedade tem experimentado uma grande transformação devido à crescente incorporação da tecnologia em seu cotidiano. Estas mudanças demonstram o grande avanço tecnológico experimentado nas últimas décadas, principalmente na área de Redes e Telecomunicações. Este contexto tem gerado uma crescente procura por profissionais desta área, com um perfil que privilegie, além do conhecimento técnico, outras habilidades consideradas importantes, como o pensamento crítico, o auto-aprendizado e a habilidade para trabalhar em equipe, habilidades estas que não são normalmente focadas nos cursos atuais. Estas habilidades são estimuladas nas abordagens centradas nos alunos, com destaque ao Problem-Based Learning (PBL), uma abordagem na qual o aluno é exposto a problemas, sem nenhum conhecimento prévio, e que, para resolvê-los, precisa pesquisar e analisar novas informações, visando sua aplicação na solução dos mesmos. Apesar da grande utilização do PBL em diversas instituições no mundo, existem poucas ferramentas de software que dão apoio para sua total aplicação. Por outro lado, mesmo sendo bem estruturado, o PBL não sugere indicações de como assimilar melhor novas experiências, de como buscar o conhecimento em experiências anteriores e como desenvolver problemas atuais e interessantes com características reais. Estas dificuldades podem ser minimizadas com a utilização do CBR (Case-Based Reasoning). Entre as aplicações CBR desenvolvidas especificamente na área de Redes de Computadores, pode-se destacar o sistema DUMBO, um sistema CBR, desenvolvido na UFRGS, especificamente para o diagnóstico de problemas em Redes de Computadores. A integração com o DUMBO permite à abordagem PBL ser aplicada com maior eficiência, utilizando sua biblioteca de casos como ferramenta de pesquisa e para a sugestão de novos problemas a partir de casos reais e atuais. Com base nestas afirmações, este trabalho apresenta a proposta e o desenvolvimento de um protótipo de ambiente de aprendizado para o ensino de Redes de Computadores, utilizando a abordagem PBL em conjunto com a abordagem CBR através do sistema DUMBO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar do grande interesse e da consolidação teórica do tema orientação para mercado e sua influência no desempenho organizacional, uma corrente de autores da área de Marketing tem argumentado que a orientação para mercado é necessária, mas não suficiente para sustentar uma vantagem competitiva de longo prazo. Esta corrente de autores defende a habilidade complementar da organização de se engajar em um processo contínuo de aprendizagem para a sustentação de uma posição distintiva no ambiente competitivo. Visando um aprofundamento deste tema, esta tese teve como objetivo principal a avaliação da relação da orientação para mercado com a performance empresarial, sob a influência de uma postura de aprendizagem organizacional. Para tanto, um modelo teórico, contendo as relações hipotetizadas entre os referidos construtos, foi desenvolvido, testado e ajustado, através da aplicação da técnica de modelagem de equações estruturais. Os resultados do levantamento realizado na indústria Eletro-Eletrônica do Brasil demonstraram uma influência positiva e significativa da orientação para mercado sobre a performance empresarial, além do impacto indireto da orientação para aprendizagem na performance empresarial através da sua forte e positiva influência sobre a orientação para mercado. Resultados complementares, futuras pesquisas e implicações gerenciais foram, ainda, discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O marketing tem sido técnica valiosa ao gestor na atualidade. As sociedades de advogados desenvolvem um ambiente propício ao relacionamento com clientes devido os serviços jurídicos geralmente serem de conclusão não imediata. Em um cenário de grande competição a retenção de clientes pode significar uma habilidade fundamental para a sobrevivência. Os relacionamentos contínuos estão associados a visão de longo prazo do negócio. Os estudiosos da área de marketing apontam para produtos ou serviços as melhores estratégias de gestão, porém algumas devem ser fundamentais às sociedades de advogados. O foco deste trabalho foi exatamente verificar a conexão entre o relacionamento e a sua gestão, através de um estudo exploratório, com o análise de casos, onde pesquisadas sociedades de advogados e seus clientes. No final, o pesquisador concluiu sobre os benefícios recíprocos de uma estratégia de relacionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando não apenas a importância das antraciclinas na terapêutica do câncer, mas também os efeitos colaterais associados ao uso destas drogas, o presente estudo procurou avaliar a atividade genotóxica de seis antraciclinas em uso clínico - doxorrubicina (DOX), daunorrubicina (DNR), epirrubicina (EPI), idarrubicina (IDA), além dos análogos de última geração, pirarrubicina (THP) e aclarrubicina (ACLA). Para tanto, foi empregado o Teste de Mutação e Recombinação Somática (SMART) em Drosophila melanogaster, que permite a detecção simultânea de mutação gênica e cromossômica, assim como de eventos relacionados com recombinação mitótica - possibilitando quantificar a contribuição deste último parâmetro genético para a genotoxicidade total induzida pelas drogas em estudo. Os dados obtidos a partir desta análise demonstraram que todas as antraciclinas estudadas induziram acréscimos significativos, relacionados tanto à mutação, quanto à recombinação nas células somáticas deste inseto. Além disso, a recombinação mitótica - entre cromossomos homólogos - foi o evento responsável por, aproximadamente, 62 a 100% da toxicidade genética observada. A comparação do potencial genotóxico dos diferentes análogos, através da padronização do número de danos genéticos por unidade de tratamento (mM), caracterizou a ACLA e o THP como as drogas mais potentes – sendo cerca de 20 vezes mais efetivas, como genotoxinas, do que a DOX, o análogo menos potente. Já que a principal ação genotóxica desta família de compostos está relacionada à inibição da topoisomerase II (topo II) – uma enzima que atua no relaxamento da supertorção da dupla hélice de DNA, através da quebra e posterior religação de suas fitas - as diferenças observadas podem ser atribuídas ao mecanismo envolvido neste bloqueio Enquanto os análogos DOX, DNR, EPI, IDA e THP atuam como venenos de topo II - tornando permanentes as quebras induzidas pela enzima - a ACLA inibe a função catalítica desta enzima, impedindo a sua ligação ao DNA. Cabe ainda ressaltar que a genotoxicidade da ACLA não está restrita à sua atividade catalítica sobre a topo II, mas também à sua ação como veneno de topo I e à sua habilidade de intercalar-se na molécula de DNA. Quando a potência genotóxica destas drogas foi associada a suas estruturas químicas, observou-se que substituições no grupamento amino-açúcar levaram a uma maior atividade tóxico-genética, quando comparadas a modificações no cromóforo. Cabe ainda ressaltar que as modificações estruturais, presentes nos análogos DOX, DNR, EPI, IDA e THP, não alteraram a sua ação recombinogênica. No entanto, no que se refere a ACLA, observaram-se decréscimos significativos na indução de recombinação mitótica - que podem ser atribuídas às múltiplas substituições presentes tanto no grupamento amino-açúcar quanto no cromóforo. O conjunto destas observações evidencia que a genotoxicidade total das drogas em estudo está centrada na indução de recombinação homóloga - um evento predominantemente envolvido tanto na iniciação, quanto na progressão do câncer. A alta incidência de tumores secundários, em pacientes submetidos ao tratamento com as antraciclinas, pode, pois, ser atribuída à ação preferencial destas drogas sobre a recombinação mitótica – embora a atividade mutagênica não possa ser desconsiderada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda a integração das práticas dos profissionais da construção civil, mais especificamente, dos projetistas, Arquitetos e Engenheiros Civis. A integração das atividades desses profissionais aparece como uma estratégia de ação, fundamentalpara a melhoria da qualidade da concepção de idéias, bem como para a execução do projeto arquitetônicoe gerenciamentoe execuçãode todas as atividadesconstrutivas.O estudo sobre o exercício profissional do Arquiteto e do Engenheiro Civil, a economia voltada para os serviços,a qualidadedos serviçosprestados,assimcomoa competitividadee a integraçãodos serviços desses dois profissionais, constituíram-se no embasamento teórico. Além desse embasamento, o trabalho apresenta um estudo de caso, realizado com a adoção da técnica de grupo focalizado. O estudo foi desenvolvido em um escritório de arquitetura e engenharia civil, estabelecido em Porto Alegre. A discussão dos principais resultados do grupo focalizado deteve-se nas temáticas sobre formação profissional, profissionalização e trabalho em equipe. O estudo revelou que o trabalho cooperativo através de parcerias ou formações de equipes na área da construção civil aproxima os profissionais em prol de um objetivo comum. No entanto, o trabalho cooperativo demanda pessoas com habilidade para se relacionar e trocar informações e experiências, partilhando os resultados em benefício da classe. Como sugestão, foram identificadas características definidoras, parâmetros ou linhas de ação básicas e gerais, que poderão norte ar a idealização e organização de núcleos de ação integrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata do processo de incorporação, pela Polícia Civil gaúcha, de explicações científicas para o crime e de procedimentos técnicocientíficos na investigação criminal. A partir da análise de uma série de documentos produzidos pelas elites policiais desde o final do século XIX, investigaram-se as implicações da relação entre os conhecimentos dos especialistas e o saber policial. O objetivo da pesquisa foi determinar em que medida os saberes científicos e técnicos colaboraram na afirmação da polícia como instância legitimamente autorizada a investigar o crime e detectar o criminoso. Considerando-se os aspectos analisados, concluiu-se que a utilização desses conhecimentos adequou-se às funções da instituição policial. O emprego da papiloscopia e da fotografia no registro criminal, introduzidas no início deste século, ampliou e tornou mais eficiente o controle policial sobre os grupos sociais tidos como potencialmente criminosos. Dessa forma, compatibilizou-se com o exercício de um poder de caráter seletivo por parte da polícia. O uso dessas teorias e de procedimentos técnico-científicos implicou na necessidade do trabalho de divulgação de tais meios entre os policiais, que se caracterizou pela preocupação das elites policiais em transmitir uma nova imagem profissional, valorizando o emprego do raciocínio e da lógica, a habilidade de identificar vestígios e o conhecimento prático relativo às formas de investigar o crime. A partir do final da década de 40, consolidou-se o grupo de peritos. Constatou-se que entre eles também era valorizado o conhecimento adquirido na prática e adequado às necessidades da investigação policial. Assim, o conhecimento dos peritos referendou a forma policial de investigar o crime e a cultura profissional do policial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para reutilização, manutenção e refatoração, projetistas de sistemas de software, freqüentemente, precisam examinar o código fonte da aplicação para entender os detalhes dos sistemas desenvolvidos. As aplicações orientadas a objetos em geral, tornam-se coleções nebulosas de classes e implementações de métodos. Sem dúvida a habilidade de entender sistemas de software é largamente aumentada visualizando-se esses produtos em níveis mais altos de abstração. Os padrões de projeto demonstram um alto índice de abstração e são considerados uma ferramenta efetiva para o entendimento de sistemas de software orientados a objetos. Aplicações orientadas a objetos visualizadas como um sistema de interação de padrões requerem a descoberta, identificação e classificação de grupos de classes relacionadas. Estas visualizações podem representar qualquer padrão conhecido ou agrupamentos que executam uma tarefa abstrata e necessariamente não são uma solução de padrão conhecida. Os padrões de projeto descrevem, portanto, microarquiteturas que resolvem problemas arquitetônicos em sistemas de software orientados a objetos. É importante identificar estas microarquiteturas durante a fase de manutenção de aplicações orientadas a objetos. Faz-se necessário salientar que estas microarquiteturas aparecem freqüentemente distorcidas na aplicação fonte. O objeto deste trabalho é demonstrar a viabilidade de construir uma ferramenta para descobrir a utilização de padrões de projeto em aplicações Java. Assim, esta tese examina as características de alguns padrões, determinando a natureza do que faz um padrão ser detectável por intermédio de meios automatizados, e propõe algumas regras pelas quais um conjunto de padrões possa ser identificado. As regras são baseadas nos relacionamentos entre classes e objetos mediante observação dos modelos estático e dinâmico. Este trabalho também documenta o desenvolvimento do protótipo da ferramenta de inspeção, que tem por objetivo aplicar os processos de engenharia reversa e reflexão computacional sobre código Java, utilizando as informações adquiridas para detectar padrões de projeto. Finalmente, esta tese demonstra a utilização dessa ferramenta em um exemplo pequeno de aplicação Java e forma a base para trabalhos adicionais que investiguem a existência de diferentes padrões de projeto em sistemas de software construídos em Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1940 e 1943, na procura de uma imagem condizente com sua condição de Capital de Estado e tentando acompanhar as grandes transformações urbanas que ocorriam na época, Curitiba contrata o arquiteto e urbanista francês Donat-Alfred Agache (1875-1959), que recém executara o Plano do Rio de Janeiro (1927), para elaborar o Plano de Urbanização para Curitiba. Fato que acaba se tornando o primeiro grande impacto urbano-arquitetônico na sociedade paranaense do século XX. A presente dissertação contextualiza essa proposta urbanística, a partir da formação profissional de Agache na Europa, sua participação na Sociedade Francesa de Urbanistas, o modo didático de fazer urbanismo, sua experiência no Rio de Janeiro e demais trabalhos no Brasil. Além de um simples Plano de Urbanização para Curitiba, Agache demonstra técnica e habilidade em enfrentar problemas e hábitos sociais, características que impõem sua ampla visão de cidade. O processo desencadeado por Agache em 1943, comparado com a realidade urbana anterior, revoluciona a relação entre o homem e seu meio na forma de ver e fazer arquitetura urbana, acontecimento que deixa um legado cultural paradigmático, com inúmeros desdobramentos, fundamental para o urbanismo da Cidade de Curitiba.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A produção da soja em escala comercial tem sido viabilizada técnica e economicamente, entre outros fatores, devido a fixação biológica do N2 por estirpes de Bradyrhizobium que podem suprir a demanda de nitrogênio desta leguminosa. No entanto, a variabilidade existente nas estirpes de Bradyrhizobium spp recomendadas para inoculação da soja tem comprometido o processo simbiótico. Variantes espontâneos isolados a partir das estirpes de B. japonicum (SEMIA 5079 e SEMIA 5080) e B. elkanii (SEMIA 587 e SEMIA 5019) foram avaliados quanto ao desempenho simbiótico (eficiência, nodulação em diferentes hospedeiros e competitividade), indução de clorose foliar em diferentes hospedeiros, morfologia colonial, habilidade de metabolização de carboidratos e tolerância à salinidade em diferentes temperaturas de incubação. Nas etapas de eficiência simbiótica e competitividade foi usada a cultivar de soja BR-16 e na avaliação da nodulação e indução de clorose foliar foram usados os seguintes hospedeiros: soja (Glycine max) (cultivares Clark e Peking), caupi (Vigna unguiculata) e guandu (Cajanus cajan). A caracterização genotípica foi realizada através da reação em cadeia da polimerase (PCR), com os oligonucleotídeos iniciadores BOX A 1-R, ERIC e RP01 Os resultados obtidos demonstraram que variantes e estirpes originais diferem quanto a características fenotípicas, e que diferenças nos perfis eletroforéticos de DNA analisados através da amplificação com os oligonucleotídeos iniciadores testados, evidenciaram a variabilidade genética presente entre as estirpes originais e os variantes selecionados. A cultivar de soja Clark, assim como caupi e guandu foram susceptíveis à rizobiotoxina produzida por estirpes e variantes de B. elkanii. Embora não se tenha verificado diferenças na nodulação em diferentes hospedeiros quando variantes ou estirpes de B. japonicum e B. elkanii foram inoculados em soja, caupi e guandu, foi observado uma simbiose eficiente para a soja (cultivares BR 16, Clark e Peking). A partir da variabilidade existente nas estirpes SEMIA 587, SEMIA 5019, SEMIA 5079 e SEMIA 5080 foram selecionados variantes eficientes e competitivos quanto à fixação de N2 em soja.