995 resultados para Vetores virais recombinantes
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
A temperatura baixa é um estresse comum na cultura do arroz em regiões temperadas, portanto a tolerância ao frio é uma característica altamente desejável em genótipos brasileiros de arroz cultivados no sul do país, onde as temperaturas baixas prejudicam o estabelecimento da lavoura e diminuem o redimento de grãos. O mapeamento molecular é uma estratégia promissora para o estudo e compreensão de de características com controle complexo, tais como a tolerância ao frio em arroz. Com base nisso, os objetivos deste trabalho foram estudar a herança e herdabilidade das características de tolerância ao frio e das características de importância agronômica a serem maepadas, desenvolver um mapa molecular a partir da população segregante F2 proveniente do cruzamento IRGA 417 (Índica) x Quilla 66304 (Japônica) e identificar locos de características quantitativas (QTLs) para a tolerância ao frio no período de germinação e vegetativo e características agronômicas que diferenciam estas duas subespécies. Por fim, investigar a possibilidade de obter indivíduos recombinantes com caracteristicas agronômicas desejáveis e toleância ao frio em uma população F2 do cruzamento entre IRGA 417 x Quilla 66304. As análises das distrbuições de freqüências da geração F2 evidenciaram a dificuldade de estimar o número de genes que controlam as características analisadas, sendo que todas elas apresentam distribuição contínua e segregação transgressiva em relação aos genitores. O mapa foi construído com base em oito marcadores SSR e 42 marcadores do tipo AFLP com uma densidade média de marcador a cada 38,8 cM, sendo o comprimento total do mapa de 581,6 cM. Foram identificados cinco QTLs, sendo que um deles confere tolerância ao frio no período de germinação, e explica 15,9% da variação fenotípica deste caráteer. O outros quatro QTLs identificados foram para largura do grgão (21,3%), esterilidade de espiguetas (61,6%), estatura das plantas (34, 5%) e comprimento do grão (21,9%). A detecção de um QTL associado à tolerância ao frio no período de germinação, e outros QTLs associados à demais características a viabilidade deste tipo de análise. Entretanto, um mapa de ligação enriquecido é nceessário para permitir a detecção de outros QTLs associados às características estudadas. Plantas recombinantes com alto recrescimento de coleóptilo e outrras caracteristicas agronômicas desejáveis foram encontradas, o que evidencia o potencial da população proveniente de IRGA 417 x Quilla 66304 para o melhoramento da tolerância ao frio de genótipos de arroz adaptados ao Sul do Brasil.
Resumo:
O propósito dessa dissertação é avaliar, numa perspectiva geográfica, os setores industriais no Brasil nas últimas três décadas. Numa primeira instância, o objetivo é verificar o nível de especialização e concentração dos estados brasileiros em termos industriais, utilizando-se os índices de Krugman e Gini, respectivamente. Com os resultados desses dois índices, os estados brasileiros são separados em quatro grupos, segundo o método de grupamento de médias K. Através de um produto interno usual entre o vetor da distribuição da produção industrial dos setores nos estados e vetores de algumas características desses setores (chamado de Viés das Características da Indústria - VCI), verifica-se em que tipos de indústrias os estados estão se especializando e/ou concentrando. Uma análise multivariada de componentes principais é feita com os VCI’s, na qual esses componentes principais são usados para verificar a similaridade dos estados. Sob outra perspectiva, busca-se investigar o nível de concentração geográfico dos setores industriais brasileiros. Para tanto, utilizaram-se o índice Gini e o índice de Venables. Nesse último, a distância entre os estados não é negligenciada para mensuração da concentração. Os setores industriais são separados em três grupos pelo método de grupamento de médias K, no qual as variáveis utilizadas são os componentes principais das características das indústrias. Utilizando outro produto interno, o Viés da Característica dos Estados (VCE), observa-se em que tipo de estados os setores industriais estão se concentrando ou não. Para visualizar como essas duas perspectivas, ou seja, como as características dos estados e das indústrias influenciam a localização dos setores industriais no território brasileiro, um modelo econométrico de dados cruzados de Midelfart-Knarvik e outros (2000) é estabelecido para o caso brasileiro. Neste modelo econométrico, é possível investigar como a interação das características das indústrias e dos estados podem determinar onde a indústria se localiza. Os principais resultados mostram que os fortes investimentos em infraestrutura na década de 70 e a abertura comercial na década de 90 foram marcantes para localização da indústria brasileira.
Resumo:
Neste trabalho comparamos as Curvas IS e de Phillips, derivadas a partir de modelos “tradicionais” e micro-fundamentados. Além disso, estimamos essas curvas para dados trimestrais brasileiros no período de 1994 a 2001. Na estimativa da IS foi usada a técnica de vetores de co-integração, já que esta curva é não balanceada – o hiato do produto é integrado de ordem zero e os regressandos são integrados de ordem um.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Este trabalho discute o estabelecimento de indicadores de desempenho para uma organização pública, segundo os preceitos do Balanced Scorecard. Tem por objetivo geral o estabelecimento de um conjunto equilibrado de indicadores de desempenho. Está calcado em uma pesquisa bibliográfica, abrangendo obras clássicas e trabalhos científicos referentes ao Balanced Scorecard. Apresenta um Estudo de Caso, relativo à Coordenação da Receita do Estado do paraná, órgão da Administração Pública, voltado para a arrecadação de tributos estaduais. O estudo envolve pesquisas dirigidas a funcionários que ocupam e/ou já ocuparam diversos cargos dentro da organização, denominados de "Grupo Pensamento Convergente", cujas opiniões foram colhidas por meio de questionários. O trabalho detalha e analisa o processo de elaboração da Visão, da Missão, dos Objetivos Estratégicos, dos Vetores de Desempenho e das Ações Estratégicas correspondentes.Em conjunto, esses elementos caracterizam um arquétipo, que possibilita uma visão geral de todo processo, suportando e direcionando as decisões gerenciais.
Resumo:
Este trabalho avalia a hipótese do Dividend Discounted Model ou Present Value Model, este modelo estabelece que o preço das ações é dado pelos dividendos futuros esperados antecipados por uma taxa apropriada de desconto. Utilizando dados de preços e dividendos de ações brasileiras, para os bancos Bradesco e Itaú, e a metodologia de vetores auto-regressivos, VAR, testamos se este modelo é respaldado empiricamente pelo comportamento dessas ações isoladamente. Como resultado geral temos uma aceitação de alguns aspectos não muito cruciais do modelo e uma forte rejeição da hipótese de que os dividendos sejam o fundamento do preço dessas ações, o que contradiz trabalhos anteriores realizados com a mesma metodologia para índices de ações.
Resumo:
Aguiar, Wolmar Vieira de. Implantação de Compras Eletrônicas : O Caso de uma Empresa Públ ica Professor Orientador Acadêmico: Prof. O r. Luiz Antonio Joia. O presente trabalho tem como objetivo investigar e relatar, a partir de três vetores principais (Tecnologia, Pessoas e Processos Produtivos e Estrutu ra Organizacional) , como foram abordados alguns fatores relacionados à implantação de compras eletrônicas em uma empresa pública brasileira de grande porte. O estudo é apoiado em revisão bibliográfica sobre Tecnologia da Informação, Administração Pública e seu Processo de Compras, Teorias Organizacionais e Pessoas. As conclusões do estudo são obtidas a partir de um estudo de caso, real izado em instituição financeira pública brasileira, e apresentadas de maneira descritiva. As observações colh idas a partir desse estudo foram anal isadas e comentadas, e algumas recomendações e aspectos relevantes identificados na implantação de compras eletrônicas na instituição em questão são apresentadas e comentadas.
Resumo:
Este estudo foi realizado a partir da observação de uma sucessão de enchentes ocorridas entre os anos de 1936 a 1997, na cidade de Camaquã/RS. Diante da constatação da ocorrência destes fenômenos, fez-se necessário a realização de um estudo mais detalhado e de cunho científico das prováveis causas destas ocorrências. Aliado a isto, foi constatado que as providências adotadas pelas autoridades competentes, tanto da parte técnica quanto das ações políticas, não obtiveram resultados satisfatórios. Visando esclarecer a comunidade local à questão das enchentes do ponto de vista técnico, este estudo apresenta propostas de transformação futura dessa questão por meio de informação, do planejamento participativo, pela consolidação das organizações sociais e por uma nova mentalidade face à água. Partindo-se da experiência de casos similares, procurou-se caracterizar e avaliar os impactos causados pelas enchentes, tendo como objetivos: a elaboração de um mapa de riscos, a definição da cota máxima e mínima das inundações, propor ações mitigadoras frente aos desastres, fornecer subsídios para atualização do Plano Diretor Urbano e auxiliar a Defesa Civil na elaboração de um plano de ação para situações de calamidades públicas, assim como também demonstrar que a ocupação desordenada de áreas urbanas compõe parte das causas das inundações O processo de investigação foi desenvolvido de uma forma empírica, onde a metodologia foi sendo criada pela observação da ocorrência de cheias in loco, auxiliada por levantamentos fotográficos, entrevistas junto a comunidade e análise de documentação histórica que comprovasse tais fenômenos. O plano de pesquisa foi criado a partir da constatação da necessidade de haver um gerenciamento adequado para a questão das inundações dentro do perímetro urbano, através de respostas que fossem convincentes e tecnicamente corretas.Por meio da utilização de levantamentos planialtimétricos elaborou-se um mapa onde foram identificadas áreas de risco em diferentes bairros de Camaquã, fazendo-se também a simulação do avanço da lâmina d’água dentro do perímetro urbano. Os aspectos da hidrogeologia local, caracterizados pelas bacias de contribuição do Arroio Duro, tiveram importância decisiva no desenvolvimento deste estudo, assim como também a análise das questões ambientais, dos problemas de drenagem urbana e de infraestrutura. Apresenta-se um conjunto de propostas que visam minimizar os impactos causados pelas enchentes por meio de ações preventivas, definindo cotas mínimas de alagamentos e identificando áreas de risco dentro do perímetro urbano, assim como, também, alternativas de moradias em áreas alagadiças e um modelo de sinalização da altura da lâmina d’água. Evidenciou-se que as prováveis causas das enchentes não foram apenas influenciadas por vetores naturais, mas, também, pela interferência antrópica no ambiente natural.
Resumo:
O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude choques exógenos.
Resumo:
O objetivo central desse artigo é o de propor e avaliar modelos econométricos de previsão para o PIB industrial brasileiro. Para tanto, foram utilizados diversos modelos de previsão como também combinações de modelos. Foi realizada uma analise criteriosa das séries a serem utilizadas na previsão. Nós concluímos que a utilização de vetores de cointegração melhora substancialmente a performance da previsão. Além disso, os modelos de combinação de previsão, na maioria dos casos, tiveram uma performance superior aos demais modelos, que já apresentavam boa capacidade preditiva.
Resumo:
Cultivos celulares podem ser utilizados para isolamento viral, caracterização de novas amostras virais e produção de imunobiológicos. Podem ser empregados cultivos celulares primários, secundários ou de linha. Estes últimos podem ser obtidos pela transformação física, química ou biológica de cultivos primários ou secundários. Para verificar a interação entre células transformadas com o Ag T do vírus símio 40 (SV40) e os Lentivírus de Pequenos Ruminantes (SRLV), amostras brasileiras de SRLV foram utilizadas para inoculação em cultivos celulares de membrana sinovial ovina transformados pelo Ag T e comparadas à amostras inoculadas em cultivos não transformados. Inicialmente, as células transformadas pelo Ag T foram caracterizadas e observou-se um aumento na cinética de crescimento e alterações no cariótipo, provavelmente induzidas pela presença do Ag T. Este foi detectado por PCR no núcleo e no citoplasma das células transformadas e sua expressão, confirmada através de RT-PCR. A fim de avaliar a permissividade e a possível seleção de populações virais em células transformadas, dois isolados, um de maedi-visna dos ovinos e um de artrite-encefalite caprina, foram inoculados em células MSO e TMSOpSV1. Através da análise de sequências dos genes gag e env e LTR obtidos por PCR, procurou-se avaliar a variabilidade viral em função do tipo de célula utilizada. Analisando-se as seqüências obtidas pelo método de Maximum Likelihood, embora tenha sido observada variabilidade viral, esta não estava associada ao tipo celular utilizado para inoculação viral.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
O setor de serviços tem se mostrado cada vez mais relevante, com crescentes contribuições para a atividade econômica e os fluxos comerciais internacionais. Especificamente em empresas de alta intensidade tecnológica, a capacidade de inovação é identificada como parte integrante do padrão de funcionamento e constitui-se a mola propulsora destas empresas. O Objetivo deste trabalho é de identificar práticas e vetores de inovação em empresas de alta intensidade tecnológica que atuam no mercado Brasileiro, que se mostram mais favoráveis a um desafio de migrar competências existentes para inovar em serviços. Para o desenvolvimento deste estudo procurou-se utilizar pesquisas secundárias sobre empresas de alta intensidade tecnológica que atuam no Brasil (IBGE-PINTEC 2005), com características notadamente inovadoras. Na seqüência, aplicou-se questionários de pesquisa primária naquelas empresas identificadas como mais promissoras. Três estudos de casos, de três empresas de Alta Tecnologia foram cuidadosamente analisados: O primeiro analisa o sucesso obtido pela CTF Technologies, o Segundo analisa os desafios enfrentados pela Lucent Technologies no período pré-fusão e o Terceiro estudo analisa a estratégia do CPQD para crescimento da importância dos serviços. As conclusões baseadas nestes casos permitem acreditar que é possível aproveitar o conhecimento sobre produtos e tecnologias e somá-los ao conhecimento das necessidades dos clientes para criar a base para a inovação em serviços. Estes estudos apontam ainda para um modelo de transição de inovação entre produtos e serviços, baseado na produção de softwares (produtos intangíveis), através de um sucessivo e gradual incremento dos elementos customizáveis presentes nestes softwares, transformando-os finalmente em plataformas para prestação de serviços de alta intensidade tecnológica.
Resumo:
O presente trabalho apresenta a investigação acerca da aplicação do processo de avaliação de RH, sobretudo no que diz respeito à sua função de verificar se a área está contribuindo para os objetivos estratégicos das organizações. O objetivo é esclarecer, contribuir para elucidar o processo nessas empresas, tendo em vista a crescente importância dos funcionários e a mudança no papel do RH nas organizações. A pesquisa foi realizada por meio de quatro estudos de caso com as maiores redes hoteleiras do Brasil, sendo duas delas de origem nacional e as outras duas estrangeiras. A análise dos casos revela que, de forma geral, as empresas buscam a utilização de indicadores para avaliar os resultados da área em relação aos objetivos estratégicos de RH e da organização. As evidências revelam ainda que há certa convergência em relação aos desafios específicos do segmento e os aspectos avaliados pelos indicadores. Entretanto, a pesquisa indica que as redes hoteleiras não desenvolvem os indicadores com base na compreensão da forma pela qual a área contribui estrategicamente para o desempenho das empresas. Em alguns casos, a avaliação verifica a contribuição de atividades específicas para os resultados financeiros e operacionais, mas não se trata de um processo integrado que parte da estratégia definindo os vetores de desempenho de RH. Por fim, a pesquisa mostra que algumas empresas valorizam os resultados de RH de forma estratégica, o que sugere uma abordagem distinta à de que é necessário quantificar e mensurar a relação causal entre os resultados de RH e o desempenho financeiro das organizações.