998 resultados para Condicionamento de Sinal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo, implementação e simulação de geradores de sinais analógicos usando-se circuitos digitais, em forma de CORE, integrando-se este com o microprocessador Risco. As principais características procuradas no gerador de sinais são: facilidade de implementação em silício, programabilidade tanto em freqüência quanto em amplitude, qualidade do sinal e facilidade de integração com um microprocessador genérico. Foi feito um estudo sobre a geração convencional de sinais analógicos, dando-se ênfase em alguns tipos específicos de circuitos como circuitos osciladores sintonizados, multivibradores, geradores de sinais triangulares e síntese de freqüência digital direta. Foi feito também um estudo sobre conversão digital-analógica, onde foram mostrados alguns tipos básicos de conversores D/A. Além disso foram abordadas questões como a precisão desses conversores, tipos digitais de conversores digitalanalógico, circuitos geradores de sinais e as fontes mais comuns de erros na conversão D/A. Dando-se ênfase a um tipo específico de conversor D/A, o qual foi utilizado nesse trabalho, abordou-se a questão da conversão sigma-delta, concentrando-se principalmente no ciclo de formatação de ruído. Dentro desse assunto foram abordados o laço sigma-delta, as estruturas de realimentação do erro, estruturas em cascata, e também o laço quantizador. Foram abordados vários circuitos digitais capazes de gerar sinais analógicos, principalmente senóides. Além de geradores de senóides simples, também se abordou a geração de sinais multi-tom, geração de outros tipos de sinais baseando-se no gerador de senóides e também foi apresentado um gerador de funções. Foram mostradas implementações e resultados dessas. Iniciando-se pelo microprocessador Risco, depois o gerador de sinais, o teste deste, a integração do microprocessador com o gerador de sinais e finalmente a implementação standard-cell do leiaute desse sistema. Por fim foram apresentadas conclusões, comentários e sugestões de trabalhos futuros baseando-se no que foi visto e implementado nesse trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata dos critérios para a elaboração de projetos para edificações escolares, em especial destinadas para a educação infantil e ensino fundamental, considerando a sua inserção no contexto ambiental, constituindo, assim, uma concepção arquitetônica bioclimática. Nessa perspectiva a implantação, a geometria, a organização espacial e os parâmetros construtivos do edifício contribuem na materialização de espaços adequados aos requisitos didático-pedagógicos e funcionais e, em especial, às exigências de conforto ambiental dos usuários, de maneira que a escola, na sua configuração física, se constitua em um elemento promotor do desenvolvimento intelectual, social e afetivo da criança. A partir da concepção global baseada nos princípios da bioclimatologia, o trabalho estabelece as necessidades para condicionamento ambiental determinadas pela caracterização climática de Passo Fundo – RS (clima subtropical úmido de altitude), explorando as estratégias solares passivas que utilizam a própria envoltória da edificação na seleção daqueles elementos ambientais externos favoráveis ao aquecimento, resfriamento, ventilação, proteção à radiação solar e iluminação, a fim de agregar aos critérios funcionais de projeto para escolas a maximização do uso desses fatores naturais e a racionalização do uso de energias não-renováveis, tendo como objetivo contribuir para um gradual desenvolvimento sustentável O trabalho aborda a legislação existente pertinente às edificações escolares, bem como apresenta exemplos de escolas solares passivas, com a aplicação de estratégias válidas para as condições locais, confrontadas com estudo de caso simplificado, a fim de que a implementação das sugestões apontadas demostre a sua viabilidade de aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A HSP27 é um membro da família das proteínas de choque térmico que protege as células contra diversos tipo de estresse, sendo expressa principalmente em astrócitos depois da isquemia. Neste trabalho, nós estudamos o papel da HSP27 na tolerância à isquemia cerebral, usando um modelo in vivo e culturas organotípicas. Foram estudados diferentes tempos de reperfusão in vivo (1, 4, 7, 14, 21, 30 dias) usando 2 min, 10 min ou 2+10 min de isquemia global transitória pela oclusão dos 4 vasos (4VO). Foi observado um aumento no imunoconteúdo no DG depois de todos os tratamentos, com uma diminuição na porcentagem de HSP27 fosforilada. Em CA1, região vulnerável, observou-se um aumento no imunoconteúdo depois de 10 ou 2+10 min de isquemia; em 10 min o aumento de fosforilação foi paralelo ao imunoconteúdo, enquanto com 2+10min de isquemia, quando a região CA1 se tornou resistente, houve uma diminuição na porcentagem de HSP27 fosforilada. Os resultados sugerem que a HSP27 pode estar atuando como chaperona, protegendo outras proteínas da desnaturação nos astrócitos, os quais podem auxiliar os neurônios a sobreviverem por manter a homeostase do tecido. Em culturas organotípicas, foram usados 5 ou 10 min de privação de glicose e oxigênio (OGD) ou 1µM de NMDA para induzir tolerância ao tempo letal, 40 min, de privação de glicose e oxigênio (OGD). Nesse caso, foi observado um aumento no imunoconteúdo de HSP27 depois de todos os tratamentos, mas a porcentagem de HSP27 fosforilada se manteve constante ou aumentou quando o pré-condicionamento ocorreu. A HSP27 pode estar modulando os filamentos de actina ou bloqueando o processo apoptótico, facilitando a sobrevivência das células. Em conjunto, os resultados sugerem que o mecanismo que leva à morte de células pode ser diferente nos dois modelos, exigindo atuações distintas da proteína.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O exercício físico está relacionado com a formação de radicais livres e com a adaptação do sistema antioxidante. O objetivo deste trabalho foi avaliar os parâmetros oxidativos e antioxidantes após três sessões independentes de exercício agudo em esteira rolante, em três intensidades diferentes, determinadas a partir dos limiares ventilatórios e consumo máximo de oxigênio, obtidos em um teste de potência aeróbia máxima. Dezessete indivíduos do sexo masculino com idade entre 20 e 30 anos divididos em dois grupos; oito triatletas, compondo o grupo treinado, e nove estudantes de educação física, compondo o grupo não treinado. As amostras sangüíneas foram coletadas antes e imediatamente após o exercício para determinação da quimiluminescência, da capacidade antioxidante total plasmática (TRAP) e da atividade eritrocitária das enzimas superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPx). Foram observados um efeito do exercício sobre a capacidade antioxidante total, que se apresentou aumentada após o exercício (p<0,05) e um efeito do estado de condicionamento físico sobre a atividade da enzima glutationa peroxidase, que se apresentou maior nos indivíduos treinados (p<0,05). Houve redução da quimiluminescência após o exercício em alta intensidade no grupo treinado (p<0,05). A enzima superóxido dismutase se apresentou elevada após o exercício nas intensidades baixa e média no grupo não treinado (p<0,05). Não foram encontradas mudanças na atividade da enzima catalase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo analisar o impacto das fusões e aquisições no desempenho operacional dos bancos comerciais e múltiplos que operam no mercado brasileiro no período compreendido entre 1996 e 2000. Foram examinadas as mudanças na performance de uma amostra de trinta e três bancos envolvidos nestes processos. Para isto foram calculados dezenove indicadores pertencentes às seguintes categorias: retorno para os acionistas, eficiência operacional e qualidade da gerência. A seguir, foram aplicados dois tipos de testes. O teste de séries com sinal de Wilcoxon permitiu provar a significância das mudanças percentuais dos indicadores . O teste foi utilizado para avaliar as seguintes diferenças: dos indicadores de bancos - alvo e dominantes antes das fusões, dos indicadores dos bancos participantes de aquisições para um ano anterior e posterior à compra e dos indicadores dos bancos constituintes das incorporações para um ano antes e depois do acontecimento. O teste t para amostras emparelhadas foi aplicado para avaliar as diferenças nos indicadores de bancos fundidos contra bancos não fundidos durante todo o período de estudo. Foi possível verificar que os processos de aquisição e fusão não resultaram em ganhos significativos na eficiência operacional, quando a eficiência é medida por relações de despesas. Observa-se que estas proporções são maiores nos bancos fundidos, o que mostra uma desvantagem, em termos de eficiência, dos bancos fundidos em comparação com os outros bancos. Para as aquisições observou-se uma melhora nos indicadores de rentabilidade e qualidade da gerência, após a compra. Porém, em comparação com o grupo de controle estes indicadores foram inferiores na maioria dos anos. Por sua vez, as incorporações apresentaram uma diminuição nestes indicadores, mas esta redução não foi significativa. Poder-se-ia inferir que os bancos não fundidos reportaram maiores margens de lucro para os acionistas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos: determinar a atividade de tirosina quinase do receptor de insulina- fosforilação de substrato exógeno poly (Glu 4: Tyr 1)- e expressão do susbtrato do receptor de insulina 1 em miométrio normal e mioma. Delineamento: estudo experimental. Pacientes: mulheres com miomas submetidas a histerectomia. Intervenção: frações de membrana plasmática células de miométrio e mioma foram preparadas e a seguir as amostras foram estimuladas com e sem insulina e incubadas com o substrato exógeno poly (Glu 4: Tyr 1). Para estudar a expressão de IRS-1, lisato total dos tecidos foi utilizado. Western blots utilizando anticorpos específicos foram realizados. Principais medidas: medida da incorporação de radioatividade (32P-ATP) nas frações de membrana plasmática incubadas com e sem insulina. Quimioluminescência seguida por densitometria foi usada para avaliar expressão de IRS-1. Resultados: níveis de IRS-1 em miométrio (0,190 ± 0,022) e mioma (0,226 ± 0,022) não foram diferentes (p > 0,05). A fosforilação do substrato exógeno poly (Glu 4: Tyr 1) também não foi diferente entre miométrio (1,566 ± 0,177) e em mioma (1,98 ± 0,612) (p > 0,05). Conclusão: a expressão protéica de IRS-1 não foi diferente entre miométrios e miomas. A capacidade de fosforilar substratos exógenos com resíduos de tirosina foi semelhante em miomas e miométrios. Outras etapas da via de transdução do sinal da insulina podem estar envolvidas na proliferação alterada dos miomas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesse estudo busco apresentar uma perspectiva além da retórica “a favor” ou “contra” o Júri. A partir da minha pesquisa de campo no Foro de Porto Alegre, trabalho com a hipótese de que apesar de ser pautado como instrumento amplamente democrático e participativo, e que abra um espaço para o sentimento de justiça do leigo, o Tribunal do Júri é estruturado de tal forma a deixar relativamente pouco espaço a qualquer lógica que não seja a do sistema institucional legal. Desse modo, os jurados, que deveriam representar a perspectiva leiga, acabam reproduzindo e reforçando a lógica jurídica. Uma lógica que, por sinal, longe de pender pela absolvição, parece pesar contra o réu. Examino a hierarquia do campo jurídico, buscando, numa visão de dentro para fora, perceber qual a noção de justiça dos jurados e como o fato de existir jurados veteranos interfere no resultado dos julgamentos. Não se trata de encontrar um culpado pelo fato de a lógica do sistema se impor aos jurados leigos, posto que tal situação decorre mais da composição de forças que está presente no campo jurídico, do que da perpetuação na função de jurado. Entretanto, percebe-se que essa longevidade submete os leigos a uma super exposição à hierarquia vigente no Júri, favorecendo, nas palavras de Pierre Bourdieu, a “adesão dos profanos” à lógica jurídica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, estudaremos as possibilidades de existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Mais especificamente, estudaremos a relação entre o nsco empírico dos segurados, supostamente uma informação assimétrica, e sua demanda por cobertura. Utilizando uma extensa e detalhada base de dados, obtida junto a Superintendência de Seguros Privados (SUSEP), implementamos os principais testes econométricos existentes na literatura (paramétricas e semi­ paramétricas) para verificar a existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Inicialmente, replicamos os testes propostos por Chiappori e Salanié (2000) e Dionne, Gouriéroux e Vanasse (2001) e obtivemos o mesmo resultado: ausência de dependência condicional entre cobertura con­ tratada e risco empírico. Porém, constatamos que este resultado não é robusto a alterações marginais na metodologia de teste. Em seguida, estudamos uma característica peculiar dos contratos brasileiros: a não-monotonicidade das coberturas. Veremos que segurados mais arriscados terão incentivos em demandar contratos com franquias maiores (e, portanto, com menores coberturas). Após exaustivos testes, constatamos que tal característica inverte, de fato, o sinal da correlação entre cobertura e risco. Por fim, testamos se os prêmios dos contratos de seguro são funções lineares da cobertura. Constatamos que sim. Com isso, concluímos que as seguradoras não utilizam o par prêmio/ cobertura para separar os segurados de acordo com seu nsco (tal como prevê os modelos que consideram a existência de seleção adversa nesse mercado). Os resultados obtidos neste trabalho sugerem que, no mínimo, não devemos ignorar a possibilidade de existência de assimetria de informação relevante no mercado segurador brasileiro. Sendo assim, sugerimos que o apreçamento do risco nos contratos de seguro não deva se valer apenas de ferramentas atuariais, tal como é feito atualmente, mas deve considerar também os incentivos implícitos que os contratos de seguro exercem sobre o comportamento (arriscado) dos segurados.