999 resultados para Sinal-ruido (Acustica)
Resumo:
Objetivos: determinar a atividade de tirosina quinase do receptor de insulina- fosforilação de substrato exógeno poly (Glu 4: Tyr 1)- e expressão do susbtrato do receptor de insulina 1 em miométrio normal e mioma. Delineamento: estudo experimental. Pacientes: mulheres com miomas submetidas a histerectomia. Intervenção: frações de membrana plasmática células de miométrio e mioma foram preparadas e a seguir as amostras foram estimuladas com e sem insulina e incubadas com o substrato exógeno poly (Glu 4: Tyr 1). Para estudar a expressão de IRS-1, lisato total dos tecidos foi utilizado. Western blots utilizando anticorpos específicos foram realizados. Principais medidas: medida da incorporação de radioatividade (32P-ATP) nas frações de membrana plasmática incubadas com e sem insulina. Quimioluminescência seguida por densitometria foi usada para avaliar expressão de IRS-1. Resultados: níveis de IRS-1 em miométrio (0,190 ± 0,022) e mioma (0,226 ± 0,022) não foram diferentes (p > 0,05). A fosforilação do substrato exógeno poly (Glu 4: Tyr 1) também não foi diferente entre miométrio (1,566 ± 0,177) e em mioma (1,98 ± 0,612) (p > 0,05). Conclusão: a expressão protéica de IRS-1 não foi diferente entre miométrios e miomas. A capacidade de fosforilar substratos exógenos com resíduos de tirosina foi semelhante em miomas e miométrios. Outras etapas da via de transdução do sinal da insulina podem estar envolvidas na proliferação alterada dos miomas.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
SAM: um sistema adaptativo para transmissão e recepção de sinais multimídia em redes de computadores
Resumo:
Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.
Resumo:
Nesse estudo busco apresentar uma perspectiva além da retórica “a favor” ou “contra” o Júri. A partir da minha pesquisa de campo no Foro de Porto Alegre, trabalho com a hipótese de que apesar de ser pautado como instrumento amplamente democrático e participativo, e que abra um espaço para o sentimento de justiça do leigo, o Tribunal do Júri é estruturado de tal forma a deixar relativamente pouco espaço a qualquer lógica que não seja a do sistema institucional legal. Desse modo, os jurados, que deveriam representar a perspectiva leiga, acabam reproduzindo e reforçando a lógica jurídica. Uma lógica que, por sinal, longe de pender pela absolvição, parece pesar contra o réu. Examino a hierarquia do campo jurídico, buscando, numa visão de dentro para fora, perceber qual a noção de justiça dos jurados e como o fato de existir jurados veteranos interfere no resultado dos julgamentos. Não se trata de encontrar um culpado pelo fato de a lógica do sistema se impor aos jurados leigos, posto que tal situação decorre mais da composição de forças que está presente no campo jurídico, do que da perpetuação na função de jurado. Entretanto, percebe-se que essa longevidade submete os leigos a uma super exposição à hierarquia vigente no Júri, favorecendo, nas palavras de Pierre Bourdieu, a “adesão dos profanos” à lógica jurídica.
Resumo:
Neste trabalho, estudaremos as possibilidades de existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Mais especificamente, estudaremos a relação entre o nsco empírico dos segurados, supostamente uma informação assimétrica, e sua demanda por cobertura. Utilizando uma extensa e detalhada base de dados, obtida junto a Superintendência de Seguros Privados (SUSEP), implementamos os principais testes econométricos existentes na literatura (paramétricas e semi paramétricas) para verificar a existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Inicialmente, replicamos os testes propostos por Chiappori e Salanié (2000) e Dionne, Gouriéroux e Vanasse (2001) e obtivemos o mesmo resultado: ausência de dependência condicional entre cobertura con tratada e risco empírico. Porém, constatamos que este resultado não é robusto a alterações marginais na metodologia de teste. Em seguida, estudamos uma característica peculiar dos contratos brasileiros: a não-monotonicidade das coberturas. Veremos que segurados mais arriscados terão incentivos em demandar contratos com franquias maiores (e, portanto, com menores coberturas). Após exaustivos testes, constatamos que tal característica inverte, de fato, o sinal da correlação entre cobertura e risco. Por fim, testamos se os prêmios dos contratos de seguro são funções lineares da cobertura. Constatamos que sim. Com isso, concluímos que as seguradoras não utilizam o par prêmio/ cobertura para separar os segurados de acordo com seu nsco (tal como prevê os modelos que consideram a existência de seleção adversa nesse mercado). Os resultados obtidos neste trabalho sugerem que, no mínimo, não devemos ignorar a possibilidade de existência de assimetria de informação relevante no mercado segurador brasileiro. Sendo assim, sugerimos que o apreçamento do risco nos contratos de seguro não deva se valer apenas de ferramentas atuariais, tal como é feito atualmente, mas deve considerar também os incentivos implícitos que os contratos de seguro exercem sobre o comportamento (arriscado) dos segurados.
Resumo:
Dada a motivação inicial da análise de investimentos envolvendo risco e seus possíveis desdobramentos, apresenta-se o desenvolvimento da tese ao longo de 4 capítulos. No primeiro capitulo, caracterizam-se as oportunidades (opções) de investimento apresentando uma retrospectiva de artigos fundamentais, a partir do de Black-Scholes (1973), que utiliza arbitragens para determinação do preço de opções. Em seguida, é adicionado a idéia de avaliação de projetos de investimentos em ativos reais, oriunda de artigos mais recentes, empregando o conceito de opção. No capitulo seguinte, as oportunidades sequenciais de troca de um ativo por outro ativo, representado por um fluxo de caixa, são avaliadas, a partir de um modelo com certo número de hipóteses, Carr (1988), obtendo-se algumas propriedades gerais. Incluem-se hipóteses sobre a distribuição dos preços dos ativos envolvidos nas opções de opções (opções sequenciais). No terceiro capitulo, expande-se o modelo para avaliação de uma sequência de gastos de investimentos, necessários ao desenvolvimento do projeto/montagem/operação de um ativo. No capítulo final, avalia-se o sinal teórico na compra de um imóvel em construção, comparando com o sinal realizado em lançamento imobiliário.
Resumo:
A literatura tem mostrado, por intermédio de estudos com animais e seres humanos, que o uso reduzido da musculatura (como por exemplo, a imobilização de um segmento) produz uma série de alterações estruturais e funcionais no músculo esquelético. As principais alterações observadas no músculo após a redução do uso estão relacionadas com alterações nas propriedades bioquímicas, na composição de fibras musculares, atrofia muscular, redução na capacidade de produção de força, e redução na capacidade de ativação. Apesar de a maior parte dos estudos sobre o assunto ter sido realizada em modelos animais (os quais possibilitam o estudo invasivo dos mecanismos de adaptação), a incidência de lesões articulares em seres humanos tem motivado os pesquisadores a buscar métodos alternativos e nãoinvasivos para o diagnóstico e acompanhamento das lesões articulares. Tendo em vista que a mecanomiografia (MMG) é uma técnica não-invasiva que permite o estudo do comportamento mecânico e fisiológico do músculo, acredita-se que esta técnica, associada com a avaliação da capacidade de produção de força e com a eletromiografia (EMG), possa ser um método útil no diagnóstico das alterações produzidas por essas lesões e no acompanhamento de programas de reabilitação. O objetivo desse estudo foi avaliar as adaptações musculares após um período de imobilização de duas semanas. Três estudos foram desenvolvidos, sendo os dois primeiros com seres humanos e o terceiro em um modelo animal. O primeiro estudo avaliou as respostas eletromiográficas, mecanomiográficas e de torque dos músculos flexores plantares e dos flexores dorsais do tornozelo durante esforço voluntário. Foram avaliados 23 indivíduos que tiveram seus tornozelos imobilizados em função de um entorse de grau II, e 32 indivíduos saudáveis, que fizeram parte do grupo controle. O segundo estudo, por sua vez, investigou as alterações no comportamento mecânico dos mesmos grupos musculares do estudo 1, ao longo de um protocolo de contrações produzidas via estimulação elétrica, utilizando-se várias freqüências de estimulação (de 5 a 60 Hz). Nos dois estudos, os valores de torque dos flexores plantares e dos flexores dorsais no grupo imobilizado foram significativamente inferiores aos do grupo controle. Essa redução foi mais evidente nos flexores plantares do que nos flexores dorsais. Os valores root mean square (RMS) do sinal EMG, durante a CVM (estudo 1), foram significativamente menores nos músculos gastrocnêmio medial (GM), sóleo (SOL) e tibial anterior (TA) do grupo que foi imobilizado quando comparado ao grupo controle. A mediana da freqüência (MDF) do sinal EMG, durante a CVM, no estudo 1, não apresentou diferença significativa entre os dois grupos da amostra, em nenhum dos três músculos estudados (GM, SOL e TA). Os valores RMS e a MDF do sinal MMG dos músculos GM, SOL e TA não apresentaram diferenças significativas entre os dois grupos da amostra, em nenhum dos dois estudos, indicando que a técnica da MMG não foi capaz de revelar as alterações musculares produzidas por um período de imobilização. O terceiro estudo avaliou as alterações das propriedades mecânicas devido a alterações no comprimento muscular e na freqüência de estimulação nos músculos SOL de 3 gatos. As relações força-comprimento foram estabelecidas ao nível articular, muscular, das fibras musculares e dos sarcômeros. Os resultados demonstraram que as variações de comprimento da fibra diferem das variações de comprimento do músculo como um todo, principalmente nos comprimentos mais encurtados. Existe um maior encurtamento da fibra com o aumento da freqüência de estimulação nos menores comprimentos musculares, enquanto nos maiores comprimentos musculares o aumento da freqüência de estimulação tem um efeito similar sobre as fibras e o músculo como um todo. Os principais achados do presente estudo são de que as respostas da EMG e de torque são alteradas por um período de 2 semanas de imobilização, enquanto as respostas da MMG não, e que o comprimento muscular é uma importante variável que deve ser controlada a nível tanto das fibras musculares, quanto dos componentes elásticos no estudo das propriedades mecânicas do músculo esquelético.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
A existência e o sinal do prêmio de volatilidade têm causado controvérsias dentro da literatura especializada. Este trabalho propôs, criticou e aplicou uma nova metodologia com a natalidade de testar estatisticamente a existência do prêmio de volatilidade, com as vantagens de testar para um conjunto de ações, e não para séries individuais, e de não depender de uma forma funcional específica para e relação entre o retorno e a volatilidade esperados. Os resultados da aplicação para um conjunto selecionado de ações negociadas na Bovespa foram favoráveis à existência do prêmio.