25 resultados para Pavarotti, Luciano 1935-2007

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho insere-se no contexto das pesquisas realizadas no Laboratório de Computação & Música do Instituto de Informática da UFRGS. Com ele pretendemos fundamentar e investigar possibilidades em educação musical através da World Wide Web (WWW ou, simplesmente, Web). Para isso, em um primeiro momento, investigamos como desenvolver adequadamente sistemas educativo-musicais para a Web. Queremos aproveitar uma das principais vantagens que a Web oferece para a educação: a de facilitar a disponibilização e o acesso ao conteúdo educativo. Especificamente nesta área do conhecimento - Música -, é rara a pesquisa visando utilizar a Web como suporte. A Internet continua impondo sérias limitações ao emprego de multimídia e ainda mais quando seus dados representam informações sonoras e musicais. Devido a isso, os poucos estudos existentes optam ou por uma simplificação exagerada do sistema ou por soluções proprietárias muito complicadas, que podem reduzir a facilidade de acesso do público-alvo. Assim, no presente trabalho procuramos encontrar um meio-termo: uma solução de compromisso entre a funcionalidade que se espera de tais sistemas, a sua operacionalidade e a simplicidade que a Internet ainda impõe. Para atingir esse objetivo, nos concentramos em promover a interatividade entre o aluno e um ambiente de aprendizado distribuído para o domínio musical. Buscamos fundamentar essa interatividade a partir de: a) conceitos pertinentes a uma interação de boa qualidade para propósitos de ensino/aprendizagem; e b) adoção de tecnologias da Web para música que permitam a implementação adequada desses conceitos. Portanto este trabalho é eminentemente interdisciplinar, envolvendo principalmente estudos das áreas de Interação Humano-Computador, Educação Musical e Multimídia. Após essa fase inicial de fundamentação, investigamos uma solução possível para esse problema na forma de um protótipo de um sistema educativo-musical na Web, tendo em vista os seguintes requisitos: · Ser fácil de programar, mas suficiente para satisfazer os requisitos de sistemas musicais. · Ser acessível, útil e usável pelos seus usuários (notadamente alunos e educadores musicais). Esse protótipo - INTERVALOS, que visa auxiliar o ensino/aprendizagem da teoria de intervalos, arpejos e escalas musicais - é uma ferramenta que pode ser integrada a um ambiente mais completo de educação musical na Web, incluindo as demais tecnologias da Internet necessárias para implementar Ensino a Distancia de música nesse meio. INTERVALOS foi submetido a avaliações de usabilidade e avaliações pedagógicas, por meio das quais pretendemos validar o grau de adequação da fundamentação teórica (conceitos) e tecnológica (tecnologias) para educação musical baseada na Web.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A literatura disponível na área de controle de processos químicos tem dado pouca atenção para o problema da seleção de estruturas de controle, entretanto a correta escolha das variáveis controladas e manipuladas, assim como os seus pareamentos, é tão ou mesmo mais importante que o projeto do controlador propriamente dito, pois esta etapa define o desempenho alcançável para o sistema em malha fechada. Esta dissertação explora vários aspectos genéricos do controle de processos com o objetivo de introduzir os principais pontos da metodologia RPN, um método sistemático que, através de índices baseados em sólidos fundamentos matemáticos, permite avaliar o projeto de controle como um todo. O índice RPN (Número de Desempenho Robusto) indica quão potencialmente difícil é, para um dado sistema, alcançar o desempenho desejado. O produto final desse trabalho é o RPN-Toolbox, a implementação das rotinas da metodologia RPN em ambiente MATLAB® com o intuito de torná-la acessível a qualquer profissional da área de controle de processos. O RPN-Toolbox permite que todas as rotinas necessárias para proceder a análise RPN de controlabilidade sejam executadas através de comandos de linha ou utilizando uma interface gráfica. Além do desenvolvimento das rotinas para o toolbox, foi realizado um estudo do problema de controle denominado processo Tennessee-Eastman. Foi desenvolvida uma estrutura de controle para a unidade e esta foi comparada, de modo sistemático, através da metodologia RPN e de simulações dinâmicas, com outras soluções apresentadas na literatura. A partir do índice concluiu-se que a estrutura proposta é tão boa quanto a melhor das estruturas da literatura e a partir de simulações dinâmicas do processo frente a diversos distúrbios, a estrutura proposta foi a que apresentou melhores resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Como explicar o fato de estarmos em um mundo que ao mesmo tempo em que desafia todos os limites na manipulação da natureza valoriza as coisas “naturais” na mesma proporção? Qual é a “natureza” recorrentemente invocada no fenômeno de “volta ao natural” das ultimas décadas? A partir da constatação deste paradoxo, neste trabalho tenta-se fazer uma análise sociológica das especificidades da construção social da idéia de natureza no mundo contemporâneo. A tese sustentada é que a revalorização do natural acontece pela busca de um “refugio” de confiança perante as incertezas criadas pela proliferação e a exacerbação dos riscos. No obstante isto, o que se entende por natureza nessa revalorização obedece a definições sociais, contendo, paradoxalmente, as “arbitrariedades” próprias da atividade humana das quais tal revalorização da natureza tenta se livrar. O trabalho apóia-se numa análise da produção de alimentos “naturais” pelos movimentos de agriculturas alternativas críticas dos métodos convencionais da agricultura moderna e portadores de visões de natureza diferenciadas. Do ponto de vista empírico, realiza-se um estudo comparativo dos campos sociais da agricultura “ecológica” e “orgânica” no Rio Grande do Sul e na Argentina, verificando como diferentes condicionantes sociais conduzem a construções diferenciadas do que é considerado “natural”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante sua utilização, tubos que operam na pirólise de substâncias orgânicas sofrem degradação estrutural resultante dos mecanismos de carburização que, em geral, levam à falha dos tubos. A carburização decorre da quantidade de carbono disponível na pirólise, que chega a formar uma camada intensa de coque no interior dos tubos. Para a retirada do coque, é introduzido vapor no intuito de queimá-lo que, adicionalmente, deixa carbono na superfície para a carburização. Este trabalho analisa os aspectos metalúrgicos envolvidos no ataque das liga Fe-Cr- Ni através da carburização, onde falhas catastróficas podem ocorrer devido às tensões térmicas geradas nas paradas de retirada do coque formado. Os tubos usados são fabricados com as ligas HP40 e HPX. Ligas ricas em cromo e níquel são utilizados; no caso do níquel a estabilização da estrutura austenítica e do cromo pela formação de uma camada protetora de óxido. No entanto, tempos prolongados de emprego da liga pode gerar quebra da barreira protetora e, então, proporcionar a difusão do carbono para o material, causando mudanças microestuturais que irão afetar as propriedades metalúrgicas Neste trabalho foram analisadas microestruturas de ligas com 25% Cr e 35% Ni que operaram por 20.000 e 37.000 horas, bem como a realização de uma série de tratamentos térmicos com ligas 25% Cr 35% Ni e 35% Cr 45% Ni sem uso, a fim de se estabelecer à relação existente entre a difusão do carbono e a microestrutura resultante. De posse destes dados, foram realizadas análises em microscopia, ensaios mecânicos, dilatometria e modelamento das tensões térmicas geradas nas paradas de decoking. Foi, também, desenvolvido uma metodologia capaz de relacionar a espessura da camada difundida de carbono com o magnetismo existente na superfície interna causada pela formação de precipitados magnéticos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Seja por motivos de saúde, estéticos ou de desempenho físico, cada vez mais há interesse em conhecer o próprio percentual de gordura corporal (%GC). Métodos cada vez menos invasivos e menos intrusivos vem sendo pesquisados para obter tal medida com o mínimo de desconforto para o paciente. Infelizmente, equipamentos de medição do %GC que apresentem operação simples, baixo custo e que possibilitem que o próprio paciente realize a medição não são encontrados no mercado nacional. O objetivo maior deste trabalho consiste, por isso, em propor um medidor com estas características. Para isso, verifica-se a possibilidade de utilizar um método com ultra-som de baixa freqüência para obter as espessuras de tecido adiposo subcutâneo e a partir disto, o %GC. Devido à elevada sensibilidade ao posicionamento do corpo de prova verificada, o que ocasiona total falta de repetibilidade das medidas, o uso de tal método é descartado. Como alternativa, propõe-se o uso do método de bioimpedância para o medidor. Os detalhes de projeto de tal equipamento são discutidos e um protótipo de suas partes críticas é implementado para mostrar sua viabilidade. A análise do protótipo construído demonstra que o equipamento devidamente acabado, quando operado em modo de bioimpedância total, apresentará precisão, exatidão, facilidade de operação e custo adequados ao uso proposto. Na operação em modo de bioimpedância segmental, todavia, a exatidão das medidas obtidas deixa a desejar, devido à provável inadequação das equações de predição usadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O setor de telefonia móvel tem passado por um processo de inovação tecnológica. Estas inovações afetam as estratégias das empresas do setor, e estabelecem uma forte concorrência entre elas. Sendo assim, a presente pesquisa objetiva identificar e comparar as vantagens competitivas que estão sendo geradas para as operadoras de telefonia móvel nacionais, tendo como objeto, analisar suas operações no Estado do Rio Grande do Sul, a partir da opção tecnológica (GSM ou CDMA) de cada uma. Para tanto, a pesquisa teve duas fases: na primeira fase, partiu-se de um referencial teórico inicial, sendo feita logo após uma pesquisa junto a quatorze (14) experts no setor de telefonia móvel, e com base na análise de conteúdo destas entrevistas acrescentaram-se outros referenciais teóricos para constituir o que é chamado aqui de arcabouço teórico (tendo como principais eixos teóricos os temas Inovação Tecnológica, Estratégias Competitivas e Teoria dos Stakeholders) das principais categorias estratégicas do setor de telefonia móvel brasileiro; na segunda fase, a partir do arcabouço teórico construído na primeira fase, foram feitos dois estudos de caso (Empresa A e Empresa B), com operadoras de Telefonia Móvel de atuação nacional, que representam juntas 67% do market share nacional, tendo como objeto de análise suas operações no Estado do Rio Grande do Sul (uma que optou pela tecnologia GSM e outra que optou pela tecnologia CDMA). Para análise desta segunda fase foi utilizada a técnica de triangulação de dados aliada ao método descritivo-interpretativo, onde foram analisadas seis (6) entrevistas em cada uma das empresas estudadas, os dados secundário s coletados, e as observações realizadas nas próprias empresas e em uma feira de telefonia móvel nacional. Como resultados são apresentados três (3) tipos de vantagens competitivas para cada uma das duas empresas: gerais; derivadas da opção tecnológica (CDMA; GSM); derivadas da organização. Neste sentido destaca-se que foram encontradas em sua maioria vantagens competitivas que advêm da opção tecnológica que cada empresa realizou, ou seja, foi possível, qualitativamente, identificar uma relação onde as inovações tecnológicas (CDMA; GSM) conduziram a atributos de vantagem competitiva. Por fim é feita uma comparação entre as vantagens competitivas identificadas para cada uma das empresas, à luz de um referencial teórico, que permitiu distinguir os recursos, as capacidades e as competências de cada uma. Nesta comparação foram identificadas do ponto de vista teórico, dois tipos de vantagens competitivas para a Empresa A (Capacidade Posicional e Interação Estratégia e Tecnologia) e dois tipos de vantagens competitivas para a Empresa B (Controle de Custos e Interação Estratégia e Tecnologia), ressaltando-se que também na comparação, as vantagens competitivas encontradas, derivaram diretamente da opção tecnológica de cada empresa.