645 resultados para Ruído sísmico
Resumo:
Exploracionistas tem grande interesse em sistemas turbidíticos, pois em geral estes compõem prolíficos plays exploratórios. No entanto, estes potenciais reservatórios se encontram muitas vezes perto ou abaixo de resolução sísmica. Dessa forma, no processo de inversão, é importante integrar os dados sísmicos com qualidade de resolução obtida a partir do seu pré-condicionamento, para que o resultado final possua características detalhadas das camadas. O pré-condicionamento possibilita melhora na resolução dos dados sísmicos, através da atenuação dos ruídos aleatórios. Como objetivo final, foi realizada a inversão acústica em dados sísmicos post stack, migrados em tempo, a um sistema de turbiditos na Bacia de Campos. O principal objetivo da inversão sísmica é transformar o dado de reflexão em propriedades petrofísicas quantitativas. A inversão para impedância acústica é comumente utilizada para predição de porosidade. O fluxo de trabalho proposto foi dividido em cinco estágios principais: pré-condicionamento sísmico do dado 3D, correlação poço-sísmica, construção do modelo de baixa frequência, inversão do dado, e estimativa da porosidade. Os resultados mostraram que o cubo de impedância acústica invertido possui resolução muito superior quando comparado com o dado em amplitude sísmica, possibilitando melhor visualização das feições geológicas do Campo de Marlim. Além de suas limitações, como desconsiderando os efeitos das variações de fluido e variações litológicas complexas sobre a relação porosidade/impedância, o método fornece uma ferramenta confiável para exploração sísmica. Detalhes mais precisos das propriedades petrofísicas podem ser obtidos através de métodos de inversão mais sofisticados, a partir de dados pre stack.
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
A presente dissertação apresenta um estudo do comportamento de um muro de gravidade flexível submetido a carregamentos sísmicos. A influência do carregamento sísmico, e mais precisamente da variação da aceleração horizontal de pico é avaliada num estudo paramétrico, através da análise dos resultados obtidos para os deslocamentos e acelerações horizontais que ocorreram no paramento do muro de gravidade. Optou-se pela análise ao longo do tempo, introduzindo o carregamento sísmico ao modelo numérico do qual fazia parte o muro de gravidade através de 5 históricos temporais de acelerogramas horizontais normalizados em 0,05g, 0,10g, 0,15g, 0,20g e 0,25g. O evento sísmico de origem dos acelerogramas normalizados foi o terremoto ocorrido no Chile em 27 de fevereiro de 2010 e medido na estação em San Jose de Maipo, a 332,7km do epicentro do terremoto. Utiliza-se um software computacional aplicado à Geotecnia, o Plaxis, para a calibração de um modelo numérico em situação estática e posterior desenvolvimento das análises paramétricas em condições sísmicas. As análises realizadas para avaliação do comportamento do muro de gravidade em condição sísmica foram a verificação da influência da variação do acelerograma horizontal normalizada introduzido na base do modelo nos valores das acelerações e deslocamentos horizontais atuantes no muro e a verificação da influência do carregamento sísmico em comparação com a situação estática, comparando-se os valores dos deslocamentos horizontais obtidos na análise estática e nas análises dinâmicas. Os fatores que influenciam potencialmente nos resultados numéricos em condições sísmicas foram apresentados, destacando-se os aspectos relacionados à modelagem numérica em condição de sismo. Os modelos constitutivos oferecidos, a possibilidade de incorporação do carregamento sísmico na base do modelo e a possibilidade de consideração do amortecimento visco-elástico de Rayleigh nos materiais são as principais qualidades do Plaxis, utilizado na modelagem numérica. Avaliou-se positivamente a potencialidade do Plaxis, visto que o programa mostrou-se uma ferramenta capaz de simular o comportamento de muros de gravidade sujeitos a carregamentos sísmicos.
Resumo:
O presente trabalho se insere nos estudos de diversidade sexual e de gênero na sua relação com a implementação do Programa Rio sem Homofobia como parte do processo de cidadanização de lésbicas, gays, bissexuais, travestis e transexuais (LGBT) no contexto Fluminense. O Programa instituiu a fundação de Centros de Cidadania LGBT (CC) que contam com profissionais para atenderem essas pessoas. O trabalho de campo teve por objetivo principal a observação da interação entre profissionais e usuário (as) nos atendimentos e acompanhamentos realizados nestes locais. Através desta observação, buscou-se compreender os processos pelos quais se constroem demandas a serem encaminhadas para outros serviços. Inspirada em reflexões pós-estruturalistas e pós-colonialistas, tentou-se refletir sobre o processo de cidadanização LGBT e processos sociais globais, em que o Estado brasileiro aparece como ator-chave na formulação de políticas identitárias, ou "focalistas", o que para muitos profissionais no campo das políticas sociais torna-se o foco de um intenso debate. Observou-se a interação entre profissionais e usuário (as) a partir de conceituações de Strauss (1997) sobre identidade como sendo construídas no decorrer da interação. Ao longo do trabalho apresentam-se os casos emblemáticos em que há uma perturbação na interação e em seu status, como uma forma de ruído na comunicação entre os envolvidos no atendimento.
Resumo:
Poluições da água e do solo são duas das cinco categorias básicas de poluição ambiental. As outras três são do ar, ruído e luz. Poluição ocorre quando um material/produto químico é adicionado ao meio ambiente afetando-o adversamente. Uma vez que a poluição existe, retornar a matriz impactada para o seu estado anteriormente não poluído torna-se muito difícil ou até mesmo impossível em alguns casos. Os compostos organoclorados (OC) representam um importante grupo de poluentes orgânicos persistentes (POP), devido à sua toxicidade e elevada persistência no ambiente. Diferentes técnicas de remediação de solo e água subterrânea têm sido desenvolvidas com o objetivo de reparar as áreas contaminadas em menor tempo e custo possíveis e, assim, a oxidação química in situ tem se mostrado uma técnica cada vez mais atraente devido sua simplicidade e baixo custo. A degradação de dois compostos organoclorados via oxidação química por reagente de Fenton em solução aquosa é o objeto do presente trabalho. Para tanto, foram selecionados dois compostos, sendo um alifático e outro aromático. Assim, foram avaliadas as condições de degradação dos compostos organoclorados em relação às concentrações do oxidante em diferentes tempos reacionais, diferentes fontes de catalisador e, de forma qualitativa, quais foram os principais subprodutos formados. Os ensaios oxidativos foram realizados em meio aquoso com temperatura controlada a 25 C e em 3 configurações de [Fe2+] e [H2O2]. A extração dos compostos de interesse para a fase orgânica também foi estudada. A análise dos extratos revelou que o acetato de etila foi o solvente que melhor extraiu os compostos de interesse da fase aquosa. Além destes ensaios, foram avaliadas outras duas fontes de Fe(II), sendo 11 óxidos de manganês dopados com ferro e a classe de solo predominante no território nacional, que é caracterizada pela sua alta concentração de ferro endógeno (latossolo). O ensaio entre as fontes de ferro revelou que tanto o óxido de Mn quanto o latossolo produziram menos subprodutos em relação à reação com a solução de sulfato Fe(II). Entretanto, em termos quantitativos, a redução na concentração de clorobenzeno foi mais efetiva na reação com a solução de Fe(II) (cerca de 63%). A identificação dos sobprodutos foi realizada a partir da análise em cromatógrafo a gás acoplado a espectrômetro de massas e em análise comparativa dos espectros com a biblioteca NIST. Os ensaios oxidativos revelaram que em baixas concentrações de oxidante, há a possibilidade de geração de subprodutos mais tóxicos que os reagentes, sendo produzido bifenilas policloradas e hexaclorociclohexano nas reações com clorobenzeno e 1,2-dicloroetano, respectivamente
Resumo:
Sabendo que os peixes são bioacumuladores de contaminantes do ambiente aquático e com isso representam riscos para seus consumidores, podendo ampliar tal poluentes para a cadeia trófica, este estudo tem por objetivo determinar os níveis de cádmio e chumbo presentes na espécie de peixe Acará (Geophagus brasiliensis), tradicional do consumo da população ribeirinha, devido a grande quantidade de indivíduos na região industrial do Sul Fluminense, no rio Paraíba do Sul, do estado do Rio Janeiro, além de comparar as faixas de concentração destes elementos-traço com dados estabelecidos pela ANVISA, utilizando estes peixes como bioindicadores das regiões estudadas. Os peixes foram capturados ao longo do rio Paraíba do Sul, nos municípios de Pinheiral, Barra Mansa e Volta Redonda. A identificação e quantificação dos metaisforam realizados, por um sistema de pré-concentração, baseado na adsorção de metais por uma resina quelante (chelex100) acoplada em linhacom um espectrômetro de absorção atômica com chama (FAAS). O método de pré-concentração permitiu a detecção de cádmio em níveis maiores que ao limite de detecção do FAAS e quando comparados com os valores estabelecidos pela ANVISA, indicou que o peixe estaria impróprio para o consumo humano. Nas análises de pré-concentração para chumbo, não houve sinal expressivo a ser comparado, apresentando somente sinais de ruído do equipamento. O cádmio e o chumbo foram escolhidos para análise uma vez que são regulamentados como contaminantes inorgânicos pela ANVISA e não foi encontrado na literatura nenhum dado sobre esses metais em Geophagus brasiliensis
Resumo:
O Gráben de Merluza é uma estrutura alongada com uma calha profunda, presente na Bacia de Santos, com direção aproximada NNE, que se estende por cerca de 170 km ao largo do litoral do estado de São Paulo. Este trabalho teve como objetivo caracterizar a geometria da sua porção norte, e relacionar os eventos de abertura, preenchimento sedimentar e períodos de reativação das falhas que o delimitam. Além disso, buscou-se uma correlação com outros eventos ocorridos na bacia e na porção continental adjacente. Para isso, foram reprocessadas e interpretadas onze seções sísmicas bidimensionais (2D) migradas em tempo, fornecidas pela Agência Nacional do Petróleo (ANP), das quais três foram detalhadas e utilizadas para a definição dos principais aspectos geométricos e tectônicos do gráben. Nas seções sísmicas 248-0041, 248-0045 e 248-0048 foram identificadas tectonossequências, sendo uma do pré-sal, uma do pacote evaporítico e outras nove do pós-sal. A Porção Norte do Gráben de Merluza caracteriza-se por uma falha de borda principal com mergulho para W e uma falha subordinada mergulhando para E. O limite entre a Porção Norte e a Porção Central se faz pela Zona de Transferência de Merluza, também conhecido como Lineamento Capricórnio. Tal feição possui um caráter regional na bacia e é responsável por uma mudança na direção da falha principal do Gráben de Merluza, que passa a mergulhar para E, enquanto que a falha secundária mergulha para W. Devido à baixa qualidade do dado sísmico nas partes mais profundas, não é possível precisar com segurança uma idade de abertura inicial para o gráben. No entanto, verificou-se que a falha principal pode atingir profundidades superiores às observadas nas linhas sísmicas, ou seja, mais de 1500 milissegundos. Com base na presença de seção sedimentar do pré-sal na calha do gráben afetada pela tectônica do embasamento, estima-se uma idade mínima aptiana. Sobre o horst que acompanha a falha principal na porção norte do gráben desenvolvem-se espessos domos de sal originados pelo escape da sequência evaporítica da calha do gráben e das imediações a leste. Entre o Cenomaniano e o Santoniano ocorre a maior movimentação da falha principal, com um forte rejeito e um expressivo volume de sedimentos oriundos do continente (podendo atingir mais de 4000 metros), devido à erosão da Serra do Mar Cretácea. Durante o Cenozóico foram observadas reativações das falhas de borda do gráben por conta de compactação das camadas superiores e por tectônica salífera. Além disso, progradações em direção ao fundo da bacia parecem indicar que a estrutura do Gráben de Merluza condicionou a Quebra da Plataforma nessa região durante o Neógeno. Tais eventos podem estar relacionados à tectônica ocorrida durante a formação do Sistema de Riftes Continentais do Sudeste Brasileiro.
Resumo:
Os principais desafios relacionados ao problema de classificação de enzimas em banco de dados de estruturas de proteínas são: 1) o ruído presente nos dados; 2) o grande número de variáveis; 3) o número não-balanceado de membros por classe. Para abordar esses desafios, apresenta-se uma metodologia para seleção de parâmetros, que combina recursos de matemática (ex: Transformada Discreta do Cosseno) e da estatística (ex:.g., correlação de variáveis e amostragem com reposição). A metodologia foi validada considerando-se os três principais métodos de classificação da literatura, a saber; árvore de decisão, classificação Bayesiana e redes neurais. Os experimentos demonstram que essa metodologia é simples, eficiente e alcança resultados semelhantes àqueles obtidos pelas principais técnicas para seleção de parâmetros na literatura.Termos para indexação classificação de enzimas,predição de função de proteínas, estruturas de proteínas, banco de dados de proteínas, seleção de parâmetros, métodos para classsificação de dados.
Resumo:
Portugal apresenta uma actividade sísmica que resulta em grande parte da sua proximidade à fronteira entre as placas tectónicas Euro-asiática (EA) e Nubia (NU), numa faixa que se estende desde Gibraltar até ao arquipélago dos Açores. A fractura litosférica contida nessa faixa é habitualmente designada por Fractura Açores-Gibraltar. A forte interacção entre os dois blocos, manifesta-se por um aumento da sismicidade nesta faixa, fortemente influenciada pela interacção entre os dois blocos tectónicos. No prolongamento para Ocidente deste acidente atinge-se a Crista Média Atlântica (CMA) num ponto localizado a noroeste do arquipélago dos Açores, e que constitui a fronteira entre a placa Americana (AM) e as placas EA e NU. Este ponto também é conhecido por Junção Tripla dos Açores. A interacção entre os três limites de placas confere à região dos Açores a actividade sísmica que se lhe conhece, uma das mais significativas no contexto nacional. Toda esta zona, devido ao potencial e efectivo risco sísmico testemunhado pelos eventos sísmicos recentes e pelos grandes terremotos historicamente documentados, é alvo de um elevado esforço que nos últimos anos resultou, de forma integrada, em avanços como: 1) melhoria da capacidade de observação do fenómeno sísmico –a existência dos meios mínimos de monitorização sísmica é hoje uma realidade que reconhecemos, salientando contudo, o muito que há a fazer em domínios como: a instalação de estações sísmicas submarinas (OBS) capazes de suprir as lacunas verificadas; a compatibilização de dados e o livre acesso aos mesmos; a criação de uma rede de acelerómetros capaz de registar os movimentos fortes; 2) aumento da capacidade de investigação – o recrutamento de novos investigadores através de projectos multi-disciplinares em domínios como a sismicidade, fonte sísmica e mecanismos focais, geomagnetismo, gravimetria, geodesia e análise estrutural....
Resumo:
O sismo, ocorrido em 6 de Abril de 2009 (Mw 6,3) junto à cidade de Áquila (Itália), provocou uma grande destruição. Uma das consequências deste evento foi o impacto na opinião pública em torno da capacidade científica para a estimação da perigosidade sísmica e a necessidade de criação de sistemas de alerta sísmico. A determinação dos mecanismos de fonte sísmica de eventos sísmicos ocorridos e registados permite melhores caracterizações dos movimentos sísmicos para uma determinada área de estudo e consequentemente melhores cenários de risco. Se a região em estudo possuir propriedades físicas específicas e muito distintas de local para local, capazes de provocar alterações locais dos movimentos sísmicos (efeitos de sítio), torna-se imperativo uma caracterização bem definida do meio de propagação das ondas sísmicas de forma a poder sintetizar informação capaz de contribuir para a boa estimação da perigosidade sísmica. No âmbito deste trabalho pretende-se estudar a influência do mecanismo de fonte sísmica e da estrutura na modelação de movimentos sísmicos no caso de Áquila. A metodologia adoptada consiste na determinação da distribuição de deslizamentos sobre o plano de falha e utilização desta informação na modelação de sismogramas sintéticos (com recurso ao algoritmo E3D). Será igualmente estabelecida uma comparação de resultados considerando-se um meio com e sem bacia e considerando-se uma fonte pontual e uma fonte extensa.
Resumo:
Os Sinais de Espalhamento de Espectro de Sequência Directa exibem propriedades cicloestacionárias que implicam redundância entre componentes de frequência espaçadas por múltiplos da taxa de símbolo. Nesta tese, é apresentado um cancelador de interferência multiutilizador (Cancelador por translação na frequência - FSC) que tira partido desta propriedade. Este cancelador linear opera no domínio da frequência no sinal espalhado de tal forma que minimiza a interferência e ruído na saída (Critério do Mínimo Erro Quadrado Médio). Além de testado para o caso de antena única, são avaliadas as performances das configurações de antenas múltiplas para o caso de beamforming e canais espacialmente descorrelacionados considerando sistemas síncronos e sistemas com desalinhamento no tempo dos perfis de canais (ambos UMTS-TDD). Essas configurações divergiam na ordem da combinação temporal, combinação espacial e detecção multiutilizador. As configurações FSC foram avaliadas quando concatenadas com o PIC-2D. Os resultados das simulações mostram consideráveis melhorias nos resultados relativamente ao RAKE-2D convencional e PIC-2D. Foi atingida performance próximo ao RAKE de utilizador único quando o FSC foi avaliado concatenado com PIC-2D em quase todas as configurações. Todas as configurações foram avaliadas com modulação QPSK, 8-PSK e 16-QAM. Foi introduzida codificação Turbo e identificou-se as situações da vantagem de utilização do FSC antes do PIC-2D. As modulações 8-PSK e 16-QAM foram igualmente testadas com codificação.
Resumo:
O presente trabalho tem como objectivo o estudo e projecto de receptores optimizados para sistemas de comunicações por fibra óptica de muito alto débito (10Gb/s e 40Gb/s), com a capacidade integrada de compensação adaptativa pós-detecção da distorção originada pela característica de dispersão cromática e de polarização do canal óptico. O capítulo 1 detalha o âmbito de aplicabilidade destes receptores em sistemas de comunicações ópticas com multiplexagem no comprimento de onda (WDM) actuais. O capítulo apresenta ainda os objectivos e principais contribuições desta tese. O capítulo 2 detalha o projecto de um amplificador pós-detecção adequado para sistemas de comunicação ópticos com taxa de transmissão de 10Gb/s. São discutidas as topologias mais adequadas para amplificadores pós detecção e apresentados os critérios que ditaram a escolha da topologia de transimpedância bem como as condições que permitem optimizar o seu desempenho em termos de largura de banda, ganho e ruído. Para além disso são abordados aspectos relacionados com a implementação física em tecnologia monolítica de microondas (MMIC), focando em particular o impacto destes no desempenho do circuito, como é o caso do efeito dos componentes extrínsecos ao circuito monolítico, em particular as ligações por fio condutor do monólito ao circuito externo. Este amplificador foi projectado e produzido em tecnologia pHEMT de Arsenieto de Gálio e implementado em tecnologia MMIC. O protótipo produzido foi caracterizado na fábrica, ainda na bolacha em que foi produzido (on-wafer) tendo sido obtidos dados de caracterização de 80 circuitos protótipo. Estes foram comparados com resultados de simulação e com desempenho do protótipo montado num veículo de teste. O capítulo 3 apresenta o projecto de dois compensadores eléctricos ajustáveis com a capacidade de mitigar os efeitos da dispersão cromática e da dispersão de polarização em sistemas ópticos com débito binário de 10Gb/s e 40Gb/s, com modulação em banda lateral dupla e banda lateral única. Duas topologias possíveis para este tipo de compensadores (a topologia Feed-Forward Equalizer e a topologia Decision Feedback Equaliser) são apresentadas e comparadas. A topologia Feed-Forward Equaliser que serviu de base para a implementação dos compensadores apresentados é analisada com mais detalhe sendo propostas alterações que permitem a sua implementação prática. O capítulo apresenta em detalhe a forma como estes compensadores foram implementados como circuitos distribuídos em tecnologia MMIC sendo propostas duas formas de implementar as células de ganho variável: com recurso à configuração cascode ou com recurso à configuração célula de Gilbert. São ainda apresentados resultados de simulação e experimentais (dos protótipos produzidos) que permitem tirar algumas conclusões sobre o desempenho das células de ganho com as duas configurações distintas. Por fim, o capítulo inclui ainda resultados de desempenho dos compensadores testados como compensadores de um sinal eléctrico afectado de distorção. No capítulo 4 é feita uma análise do impacto da modulação em banda lateral dupla (BLD) em comparação com a modulação em banda lateral única (BLU) num sistema óptico afectado de dispersão cromática e de polarização. Mostra-se que com modulação em BLU, como não há batimento entre portadoras das duas bandas laterais em consequência do processo quadrático de detecção e há preservação da informação da distorção cromática do canal (na fase do sinal), o uso deste tipo de modulação em sistemas de comunicação óptica permite maior tolerância à dispersão cromática e os compensadores eléctricos são muito mais eficientes. O capítulo apresenta ainda resultados de teste dos compensadores desenvolvidos em cenários experimentais de laboratório representativos de sistemas ópticos a 10Gb/s e 40Gb/s. Os resultados permitem comparar o desempenho destes cenários sem e com compensação eléctrica optimizada, para os casos de modulação em BLU e em BLD, e considerando ainda os efeitos da dispersão na velocidade de grupo e do atraso de grupo diferencial. Mostra-se que a modulação BLU em conjunto com compensação adaptativa eléctrica permite um desempenho muito superior á modulação em BLD largamente utilizada nos sistemas de comunicações actuais. Por fim o capítulo 5 sintetiza e apresenta as principais conclusões deste trabalho.
Resumo:
No trabalho apresentado realiza-se uma primeira descrição de voz e emoção para o Português Europeu. Estudamos, utilizando como base estudos realizados em diversas línguas (finlandês; inglês; alemão), os parâmetros relacionados com voz e que variam consoante a emoção que expressamos. Analisamos assim os parâmetros relacionados com a frequência Fundamental (F0) com a perturbação (jitter) com a amplitude (shimmer) e com aspectos relacionados com o ruído (HNR). Trata-se de um estudo abrangente que estudando voz e a sua relação/variação de acordo com a emoção o faz em três vertentes: patologia de voz de origem psicogénica (carácter emocional); emoção produzida por actores e a análise de emoção espontânea. Conseguindo, como trabalho pioneiro nesta área, valores para todos estes tipos de produção. Salientamos o facto de no nosso trabalho apenas existir a análise de voz sem recurso a expressão facial ou à postura dos indivíduos. Para que pudéssemos realizar estudos comparativos com os dados que íamos recolhendo em cada corpus (patologia; emoção por actor e emoção espontânea), procurámos utilizar sempre os mesmos métodos de análise (Praat; SFS; SPSS, Hoarseness Diagram – para a análise de voz com patologia - e o sistema Feeltrace - para as emoções espontâneas). Os estudos e análises relativos à emoção produzida por actores são complementados por testes de percepção aplicados a falantes nativos de Inglês Americano e a falantes de Português Europeu. Este teste, juntamente com a análise da emoção espontânea, permitiu-nos retirar dados particulares relativos à língua portuguesa. Apesar de haver tanto na expressão como na percepção de emoções muitas características consideradas universais, em Português percebe-se algo de peculiar. Os valores para a expressão neutra; tristeza e alegria são todos muito próximos, ao contrário do que acontece noutras línguas. Além disso estas três emoções (de famílias distintas) são as que mais dificuldades causam (aos dois grupos de informantes) em termos de distinção no teste de percepção. Poderá ser esta a particularidade da expressão da emoção no Português Europeu, podendo estar ligada a factores culturais. Percebe-se ainda, com este trabalho, que a emoção expressa pelo actor se aproxima da emoção espontânea. No entanto, alguns parâmetros apresentam valores diferentes, isto porque o actor tem a tendência de exagerar a emoção. Com este trabalho foram criados corpora originais que serão um recurso importante a disponibilizar para futuras análises numa área que é ainda deficitária, em termos de investigação científica, em Portugal. Tanto os corpora, como respectivos resultados obtidos poderão vir a ser úteis em áreas como as Ciências da Fala; Robótica e Docência.