1000 resultados para Pavarotti, Luciano 1935-2007


Relevância:

100.00% 100.00%

Publicador:

Resumo:

(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante sua utilização, tubos que operam na pirólise de substâncias orgânicas sofrem degradação estrutural resultante dos mecanismos de carburização que, em geral, levam à falha dos tubos. A carburização decorre da quantidade de carbono disponível na pirólise, que chega a formar uma camada intensa de coque no interior dos tubos. Para a retirada do coque, é introduzido vapor no intuito de queimá-lo que, adicionalmente, deixa carbono na superfície para a carburização. Este trabalho analisa os aspectos metalúrgicos envolvidos no ataque das liga Fe-Cr- Ni através da carburização, onde falhas catastróficas podem ocorrer devido às tensões térmicas geradas nas paradas de retirada do coque formado. Os tubos usados são fabricados com as ligas HP40 e HPX. Ligas ricas em cromo e níquel são utilizados; no caso do níquel a estabilização da estrutura austenítica e do cromo pela formação de uma camada protetora de óxido. No entanto, tempos prolongados de emprego da liga pode gerar quebra da barreira protetora e, então, proporcionar a difusão do carbono para o material, causando mudanças microestuturais que irão afetar as propriedades metalúrgicas Neste trabalho foram analisadas microestruturas de ligas com 25% Cr e 35% Ni que operaram por 20.000 e 37.000 horas, bem como a realização de uma série de tratamentos térmicos com ligas 25% Cr 35% Ni e 35% Cr 45% Ni sem uso, a fim de se estabelecer à relação existente entre a difusão do carbono e a microestrutura resultante. De posse destes dados, foram realizadas análises em microscopia, ensaios mecânicos, dilatometria e modelamento das tensões térmicas geradas nas paradas de decoking. Foi, também, desenvolvido uma metodologia capaz de relacionar a espessura da camada difundida de carbono com o magnetismo existente na superfície interna causada pela formação de precipitados magnéticos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Seja por motivos de saúde, estéticos ou de desempenho físico, cada vez mais há interesse em conhecer o próprio percentual de gordura corporal (%GC). Métodos cada vez menos invasivos e menos intrusivos vem sendo pesquisados para obter tal medida com o mínimo de desconforto para o paciente. Infelizmente, equipamentos de medição do %GC que apresentem operação simples, baixo custo e que possibilitem que o próprio paciente realize a medição não são encontrados no mercado nacional. O objetivo maior deste trabalho consiste, por isso, em propor um medidor com estas características. Para isso, verifica-se a possibilidade de utilizar um método com ultra-som de baixa freqüência para obter as espessuras de tecido adiposo subcutâneo e a partir disto, o %GC. Devido à elevada sensibilidade ao posicionamento do corpo de prova verificada, o que ocasiona total falta de repetibilidade das medidas, o uso de tal método é descartado. Como alternativa, propõe-se o uso do método de bioimpedância para o medidor. Os detalhes de projeto de tal equipamento são discutidos e um protótipo de suas partes críticas é implementado para mostrar sua viabilidade. A análise do protótipo construído demonstra que o equipamento devidamente acabado, quando operado em modo de bioimpedância total, apresentará precisão, exatidão, facilidade de operação e custo adequados ao uso proposto. Na operação em modo de bioimpedância segmental, todavia, a exatidão das medidas obtidas deixa a desejar, devido à provável inadequação das equações de predição usadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O setor de telefonia móvel tem passado por um processo de inovação tecnológica. Estas inovações afetam as estratégias das empresas do setor, e estabelecem uma forte concorrência entre elas. Sendo assim, a presente pesquisa objetiva identificar e comparar as vantagens competitivas que estão sendo geradas para as operadoras de telefonia móvel nacionais, tendo como objeto, analisar suas operações no Estado do Rio Grande do Sul, a partir da opção tecnológica (GSM ou CDMA) de cada uma. Para tanto, a pesquisa teve duas fases: na primeira fase, partiu-se de um referencial teórico inicial, sendo feita logo após uma pesquisa junto a quatorze (14) experts no setor de telefonia móvel, e com base na análise de conteúdo destas entrevistas acrescentaram-se outros referenciais teóricos para constituir o que é chamado aqui de arcabouço teórico (tendo como principais eixos teóricos os temas Inovação Tecnológica, Estratégias Competitivas e Teoria dos Stakeholders) das principais categorias estratégicas do setor de telefonia móvel brasileiro; na segunda fase, a partir do arcabouço teórico construído na primeira fase, foram feitos dois estudos de caso (Empresa A e Empresa B), com operadoras de Telefonia Móvel de atuação nacional, que representam juntas 67% do market share nacional, tendo como objeto de análise suas operações no Estado do Rio Grande do Sul (uma que optou pela tecnologia GSM e outra que optou pela tecnologia CDMA). Para análise desta segunda fase foi utilizada a técnica de triangulação de dados aliada ao método descritivo-interpretativo, onde foram analisadas seis (6) entrevistas em cada uma das empresas estudadas, os dados secundário s coletados, e as observações realizadas nas próprias empresas e em uma feira de telefonia móvel nacional. Como resultados são apresentados três (3) tipos de vantagens competitivas para cada uma das duas empresas: gerais; derivadas da opção tecnológica (CDMA; GSM); derivadas da organização. Neste sentido destaca-se que foram encontradas em sua maioria vantagens competitivas que advêm da opção tecnológica que cada empresa realizou, ou seja, foi possível, qualitativamente, identificar uma relação onde as inovações tecnológicas (CDMA; GSM) conduziram a atributos de vantagem competitiva. Por fim é feita uma comparação entre as vantagens competitivas identificadas para cada uma das empresas, à luz de um referencial teórico, que permitiu distinguir os recursos, as capacidades e as competências de cada uma. Nesta comparação foram identificadas do ponto de vista teórico, dois tipos de vantagens competitivas para a Empresa A (Capacidade Posicional e Interação Estratégia e Tecnologia) e dois tipos de vantagens competitivas para a Empresa B (Controle de Custos e Interação Estratégia e Tecnologia), ressaltando-se que também na comparação, as vantagens competitivas encontradas, derivaram diretamente da opção tecnológica de cada empresa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work is reported, in a first step, the effect of different experimental parameters and their relation with polymer properties using the homogeneous binary catalyst system composed by Ni(α-diimine)Cl2 (α-diimine = 1,4-bis(2,6-diisopropylphenyl)- acenaphthenediimine) and {TpMs*}V(Ntbu)Cl2 (TpMs* = hydridobis(3-mesitylpyrazol-1- yl)(5-mesitylpyrazol-1-yl)) activated with MAO. This complexes combination produces, in a single reactor, polyethylene blends with different and controlled properties dependent on the polymerization temperature, solvent and Nickel molar fraction (xNi). In second, the control of linear low density polyethylene (LLDPE) production was possible, using a combination of catalyst precursors {TpMs}NiCl (TpMs = hydridotris(3- mesitylpyrazol-1-yl)) and Cp2ZrCl2, activated with MAO/TMA, as Tandem catalytic system. The catalytic activities as well as the polymer properties are dependent on xNi. Polyethylene with different Mw and controlled branches is produced only with ethylene monomer. Last, the application group 3 metals catalysts based, M(allyl)2Cl(MgCl2)2.4THF (M = Nd, La and Y), in isoprene polymerization with different cocatalysts systems and experimental parameters is reported. High yields and polyisoprene with good and controlled properties were produced. The metal center, cocatalysts and the experimental parameters are determinant for the polymers properties and their control. High conversions in cis-1,4- or trans-1,4-polyisoprene were obtained and the polymer microstructure depending of cocatalyst and metal type. Combinations of Y and La precursors were effective systems for the cis/transpolyisoprene blends production, and the control of cis-trans-1,4-microstructures by Yttrium molar fraction (xY) variation was possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma pesquisa experimental que buscou o entendimento dos fatores influentes no desempenho de misturas asfálticas preparadas com incorporação de borracha reciclada de pneus. Foram estudados tanto os ligantes modificados (asfalto-borracha) e misturas preparadas com tais ligantes, como as misturas tipo agregado-borracha. As misturas de ligantes modificados com borracha (processo úmido) foram preparadas em laboratório e caracterizadas segundo ensaios tradicionais e da Metodologia SUPERPAVETM. Para as misturas agregado-borracha (processo seco) foram preparadas e ensaiadas, misturas tipo concreto asfáltico variando-se os principais fatores intervenientes no desempenho, tais como: granulometria da borracha e do agregado, tempo de digestão da borracha e percentual de borracha. Para caracterização e verificação de desempenho, realizaram-se os ensaios da Metodologia Marshall, ensaios de resistência à tração, módulo de resiliência à compressão diâmetral, fadiga à tensão controlada, adesividade (Metodologia Lottman Modificada), abrasão (Cântabro) e deformação permanente (creep dinâmico e simulador tipo LCPC). Foi construído, também, um pequeno trecho experimental comparativo, para verificação de aspectos executivos e monitoramento de superfície (com borracha-agregado). Os resultados obtidos demonstraram a superioridade tanto dos ligantes modificados quanto das misturas asfálticas preparadas com tais ligantes. Pode-se afirmar que a adição de 12 a 18% de borracha ao ligante, leva à produção de misturas com maior resistência à fadiga e a deformações permanentes e maior durabilidade A incorporação de borracha, através do processo seco, melhora as características de resistência à fadiga e ao trincamento térmico, devido à menor sensibilidade a variações de temperatura. O efeito do tempo de digestão mostrou-se altamente relevante no comportamento das misturas. As medidas de macrotextura in situ indicaram que o revestimento tipo borracha-agregado possui características funcionais melhores que as do trecho comparativo em concreto asfáltico convencional. Ficou evidente a existência de viabilidade técnica para execução de revestimentos com a utilização de borracha reciclada, tanto com o emprego do processo úmido quanto seco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho analisa o Fahrenheit 451 de Ray Bradbury e o de François Truffaut, em sua proposição de utilizar a oralidade (discurso oral) como forma de manutenção do literário e resistência à imposição e à censura ideológica. Efetua também uma análise comparatista das Utopias Negativas do século XX (obras Distópicas). Ao longo deste projeto, é feita uma análise do surgimento da escrita (alfabético-fonética), e sua estreita relação com o discurso oral. Tenta-se reproduzir a trajetória traçada pelo discurso oral, passando pelo desenvolvimento da tecnologia escrita, assim como a produção cultural tanto no meio oral quanto no escrito, junto com suas conseqüências e influências sobre pensamento humano. Da oralidade dos poemas homéricos à oralidade advinda com o desenvolvimento de aparelhos eletrônicos como o telefone, que, em plena modernidade, voltam a valorizar o discurso oral. Neste projeto a oralidade é vista como algo cíclico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: Avaliar a acurácia da colposcopia utilizando a Classificação Colposcópica Internacional de 2002. Métodos: 3040 pacientes de população geral foram rastreadas para patologia cervical através de exame citopatológico, captura híbrida para HPV de alto risco e inspeção cervical. As colposcopias que resultaram em biópsia (n=468) executadas no rastreamento e acompanhamento destas pacientes foram gravadas, revistas por dois colposcopistas cegados e incluídas para análise. Resultados: Os observadores apresentaram excelente concordância (Kappa=0.843) no relato dos achados pela nova nomenclatura. A colposcopia apresentou sensibilidade de 86% e especificidade de 30.3% em diferenciar colo normal de colo anormal (LSIL, HSIL ou carcinoma); quando a colposcopia objetivava diferenciar colo normal ou LSIL de HSIL ou carcinoma, apresentou sensibilidade de 61.1% e especificidade de 94.4%. Os achados colposcópicos classificados como “maiores” pela nova classificação apresentaram valores preditivos positivos elevados para HSIL. Presença do achado colposcópico na zona de transformação e tamanho da lesão estavam associados a HSIL. Bordas externas definidas, associação de múltiplos achados distintos e presença de zona iodo negativa não estavam relacionados à gravidade das lesões. Conclusão: A colposcopia utilizando a Classificação Internacional de 2002 mostra-se um bom método de rastreamento, mas como método diagnóstico apresenta falhas, não podendo substituir a avaliação histológica. A categorização em achados colposcópicos “maiores” e “menores” apresentada pela nova classificação é adequada. Na realização da colposcopia, é importante também que a lesão seja situada em relação à zona de transformação e que seu tamanho seja indicado, já que estes foram fatores associados a lesões de alto grau.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumo não disponível