25 resultados para Análise do ruído branco
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
O presente trabalho tem como objectivo o estudo e projecto de receptores optimizados para sistemas de comunicações por fibra óptica de muito alto débito (10Gb/s e 40Gb/s), com a capacidade integrada de compensação adaptativa pós-detecção da distorção originada pela característica de dispersão cromática e de polarização do canal óptico. O capítulo 1 detalha o âmbito de aplicabilidade destes receptores em sistemas de comunicações ópticas com multiplexagem no comprimento de onda (WDM) actuais. O capítulo apresenta ainda os objectivos e principais contribuições desta tese. O capítulo 2 detalha o projecto de um amplificador pós-detecção adequado para sistemas de comunicação ópticos com taxa de transmissão de 10Gb/s. São discutidas as topologias mais adequadas para amplificadores pós detecção e apresentados os critérios que ditaram a escolha da topologia de transimpedância bem como as condições que permitem optimizar o seu desempenho em termos de largura de banda, ganho e ruído. Para além disso são abordados aspectos relacionados com a implementação física em tecnologia monolítica de microondas (MMIC), focando em particular o impacto destes no desempenho do circuito, como é o caso do efeito dos componentes extrínsecos ao circuito monolítico, em particular as ligações por fio condutor do monólito ao circuito externo. Este amplificador foi projectado e produzido em tecnologia pHEMT de Arsenieto de Gálio e implementado em tecnologia MMIC. O protótipo produzido foi caracterizado na fábrica, ainda na bolacha em que foi produzido (on-wafer) tendo sido obtidos dados de caracterização de 80 circuitos protótipo. Estes foram comparados com resultados de simulação e com desempenho do protótipo montado num veículo de teste. O capítulo 3 apresenta o projecto de dois compensadores eléctricos ajustáveis com a capacidade de mitigar os efeitos da dispersão cromática e da dispersão de polarização em sistemas ópticos com débito binário de 10Gb/s e 40Gb/s, com modulação em banda lateral dupla e banda lateral única. Duas topologias possíveis para este tipo de compensadores (a topologia Feed-Forward Equalizer e a topologia Decision Feedback Equaliser) são apresentadas e comparadas. A topologia Feed-Forward Equaliser que serviu de base para a implementação dos compensadores apresentados é analisada com mais detalhe sendo propostas alterações que permitem a sua implementação prática. O capítulo apresenta em detalhe a forma como estes compensadores foram implementados como circuitos distribuídos em tecnologia MMIC sendo propostas duas formas de implementar as células de ganho variável: com recurso à configuração cascode ou com recurso à configuração célula de Gilbert. São ainda apresentados resultados de simulação e experimentais (dos protótipos produzidos) que permitem tirar algumas conclusões sobre o desempenho das células de ganho com as duas configurações distintas. Por fim, o capítulo inclui ainda resultados de desempenho dos compensadores testados como compensadores de um sinal eléctrico afectado de distorção. No capítulo 4 é feita uma análise do impacto da modulação em banda lateral dupla (BLD) em comparação com a modulação em banda lateral única (BLU) num sistema óptico afectado de dispersão cromática e de polarização. Mostra-se que com modulação em BLU, como não há batimento entre portadoras das duas bandas laterais em consequência do processo quadrático de detecção e há preservação da informação da distorção cromática do canal (na fase do sinal), o uso deste tipo de modulação em sistemas de comunicação óptica permite maior tolerância à dispersão cromática e os compensadores eléctricos são muito mais eficientes. O capítulo apresenta ainda resultados de teste dos compensadores desenvolvidos em cenários experimentais de laboratório representativos de sistemas ópticos a 10Gb/s e 40Gb/s. Os resultados permitem comparar o desempenho destes cenários sem e com compensação eléctrica optimizada, para os casos de modulação em BLU e em BLD, e considerando ainda os efeitos da dispersão na velocidade de grupo e do atraso de grupo diferencial. Mostra-se que a modulação BLU em conjunto com compensação adaptativa eléctrica permite um desempenho muito superior á modulação em BLD largamente utilizada nos sistemas de comunicações actuais. Por fim o capítulo 5 sintetiza e apresenta as principais conclusões deste trabalho.
Resumo:
O metano é um gás de estufa potente e uma importante fonte de energia. A importância global e impacto em zonas costeiras de acumulações e escape de gás metano são ainda pouco conhecidas. Esta tese investiga acumulações e escape de gás em canais de maré da Ria de Aveiro com dados de cinco campanhas de reflexão sísmica de alta resolução realizadas em 1986, 1999, 2002 e 2003. Estas incluem três campanhas de Chirp (RIAV99, RIAV02 e RIAV02A) e duas campanhas de Boomer (VOUGA86 e RIAV03). O processamento dos dados de navegação incluíram filtros de erros, correcções de sincronização de relógios de sistemas de aquisição de dados, ajuste de “layback” e estimativa da posição de “midpoint”. O processamento do sinal sísmico consistiu na correcção das amplitudes, remoção de ruído do tipo “burst”, correcções estáticas, correcção do “normal move-out”, filtragem passabanda, desconvolução da assinatura e migração Stolt F-K. A análise da regularidade do trajecto de navegação, dos desfasamentos entre horizontes e dos modelos de superfícies foi utilizada para controlo de qualidade, e permitiu a revisão e melhoria dos parâmetros de processamento. A heterogeneidade da cobertura sísmica, da qualidade do sinal, da penetração e da resolução, no seu conjunto constrangeram o uso dos dados a interpretações detalhadas, mas locais, de objectos geológicos da Ria. É apresentado um procedimento para determinar a escolha de escalas adequadas para modelar os objectos geológicos, baseado na resolução sísmica, erros de posicionamento conhecidos e desfasamentos médios entre horizontes. As evidências de acumulação e escape de gás na Ria de Aveiro incluem turbidez acústica, reflexões reforçadas, cortinas acústicas, domas, “pockmarks” e alinhamentos de “pockmarks” enterradas, horizontes perturbados e plumas acústicas na coluna de água (flares). A estratigrafia e a estrutura geológica controlam a distribuição e extensão das acumulações e escape de gás. Ainda assim, nestes sistemas de baixa profundidade de água, as variações da altura de maré têm um impacto significativo na detecção de gás com métodos acústicos, através de alterações nas amplitudes originais de reflexões reforçadas, turbidez acústica e branqueamento acústico em zonas com gás. Os padrões encontrados confirmam que o escape de bolhas de gás é desencadeado pela descida da maré. Há acumulações de gás em sedimentos Holocénicos e no substrato de argilas e calcários do Mesozóico. Evidências directas de escape de gás em sondagens em zonas vizinhas, mostraram gás essencialmente biogénico. A maioria do gás na área deve ter sido gerado em sedimentos lagunares Holocénicos. No entanto, a localização e geometria de estruturas de escape de fluidos em alguns canais de maré, seguem o padrão de fracturas do substrato Mesozóico, indicando uma possível fonte mais profunda de gás e que estas fracturas funcionam como condutas preferenciais de migração dos fluidos e exercem um controlo estrutural na ocorrência de gás na Ria.
Resumo:
Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.
Resumo:
No trabalho apresentado realiza-se uma primeira descrição de voz e emoção para o Português Europeu. Estudamos, utilizando como base estudos realizados em diversas línguas (finlandês; inglês; alemão), os parâmetros relacionados com voz e que variam consoante a emoção que expressamos. Analisamos assim os parâmetros relacionados com a frequência Fundamental (F0) com a perturbação (jitter) com a amplitude (shimmer) e com aspectos relacionados com o ruído (HNR). Trata-se de um estudo abrangente que estudando voz e a sua relação/variação de acordo com a emoção o faz em três vertentes: patologia de voz de origem psicogénica (carácter emocional); emoção produzida por actores e a análise de emoção espontânea. Conseguindo, como trabalho pioneiro nesta área, valores para todos estes tipos de produção. Salientamos o facto de no nosso trabalho apenas existir a análise de voz sem recurso a expressão facial ou à postura dos indivíduos. Para que pudéssemos realizar estudos comparativos com os dados que íamos recolhendo em cada corpus (patologia; emoção por actor e emoção espontânea), procurámos utilizar sempre os mesmos métodos de análise (Praat; SFS; SPSS, Hoarseness Diagram – para a análise de voz com patologia - e o sistema Feeltrace - para as emoções espontâneas). Os estudos e análises relativos à emoção produzida por actores são complementados por testes de percepção aplicados a falantes nativos de Inglês Americano e a falantes de Português Europeu. Este teste, juntamente com a análise da emoção espontânea, permitiu-nos retirar dados particulares relativos à língua portuguesa. Apesar de haver tanto na expressão como na percepção de emoções muitas características consideradas universais, em Português percebe-se algo de peculiar. Os valores para a expressão neutra; tristeza e alegria são todos muito próximos, ao contrário do que acontece noutras línguas. Além disso estas três emoções (de famílias distintas) são as que mais dificuldades causam (aos dois grupos de informantes) em termos de distinção no teste de percepção. Poderá ser esta a particularidade da expressão da emoção no Português Europeu, podendo estar ligada a factores culturais. Percebe-se ainda, com este trabalho, que a emoção expressa pelo actor se aproxima da emoção espontânea. No entanto, alguns parâmetros apresentam valores diferentes, isto porque o actor tem a tendência de exagerar a emoção. Com este trabalho foram criados corpora originais que serão um recurso importante a disponibilizar para futuras análises numa área que é ainda deficitária, em termos de investigação científica, em Portugal. Tanto os corpora, como respectivos resultados obtidos poderão vir a ser úteis em áreas como as Ciências da Fala; Robótica e Docência.
Resumo:
A análise das séries temporais de valores inteiros tornou-se, nos últimos anos, uma área de investigação importante, não só devido à sua aplicação a dados de contagem provenientes de diversos campos da ciência, mas também pelo facto de ser uma área pouco explorada, em contraste com a análise séries temporais de valores contínuos. Uma classe que tem obtido especial relevo é a dos modelos baseados no operador binomial thinning, da qual se destaca o modelo auto-regressivo de valores inteiros de ordem p. Esta classe é muito vasta, pelo que este trabalho tem como objectivo dar um contributo para a análise estatística de processos de contagem que lhe pertencem. Esta análise é realizada do ponto de vista da predição de acontecimentos, aos quais estão associados mecanismos de alarme, e também da introdução de novos modelos que se baseiam no referido operador. Em muitos fenómenos descritos por processos estocásticos a implementação de um sistema de alarmes pode ser fundamental para prever a ocorrência de um acontecimento futuro. Neste trabalho abordam-se, nas perspectivas clássica e bayesiana, os sistemas de alarme óptimos para processos de contagem, cujos parâmetros dependem de covariáveis de interesse e que variam no tempo, mais concretamente para o modelo auto-regressivo de valores inteiros não negativos com coeficientes estocásticos, DSINAR(1). A introdução de novos modelos que pertencem à classe dos modelos baseados no operador binomial thinning é feita quando se propõem os modelos PINAR(1)T e o modelo SETINAR(2;1). O modelo PINAR(1)T tem estrutura periódica, cujas inovações são uma sucessão periódica de variáveis aleatórias independentes com distribuição de Poisson, o qual foi estudado com detalhe ao nível das suas propriedades probabilísticas, métodos de estimação e previsão. O modelo SETINAR(2;1) é um processo auto-regressivo de valores inteiros, definido por limiares auto-induzidos e cujas inovações formam uma sucessão de variáveis independentes e identicamente distribuídas com distribuição de Poisson. Para este modelo estudam-se as suas propriedades probabilísticas e métodos para estimar os seus parâmetros. Para cada modelo introduzido, foram realizados estudos de simulação para comparar os métodos de estimação que foram usados.
Resumo:
Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.
Resumo:
O domínio científico da investigação é a Gestão da Inovação e a Gestão da Transferência de Conhecimento e de Tecnologia, tendo como tema central as relações entre empresas e agentes de inovação que fazem da Transferência de Tecnologia uma das suas actividades, pelo que se tenta caracterizar e validar uma Metodologia de análise subjectiva adequada ao estudo daqueles agentes, enquanto disseminadores de conhecimento, e as formas de maximizar a sua actuação quando tenta atender às necessidades das empresas, tais como a transferência de conhecimento e de tecnologias, ao mesmo tempo que valoriza o seu conhecimento. O trabalho proposto tem como objectivo principal contribuir para o fomento de estudos que permitam classificar as acções dos Agentes de Inovação na sua vertente de disseminador do conhecimento, requerendo assim entender as relações subjacentes aos processos de criação, transferência e difusão de conhecimento. Este contributo passa pelo estudo das formas de aplicação de mecanismos específicos na gestão das relações daqueles agentes, quando estes actuam em parceria com as empresas. Tem ainda em vista contribuir com este estudo para o desenvolvimento de ferramentas que auxiliem as políticas governamentais no que diz respeito às questões de gestão da inovação e da transferência de conhecimento e de tecnologia. Os seguintes objectivos específicos são propostos: - Evidenciar as práticas actuais que promovem a interacção nas diversas fases do processo assim como a existência de práticas transversais àqueles; - Validar uma Metodologia que, utilizando os conhecimentos anteriores, possibilite a identificação de “bottlenecks” no processo e aponte um conceito de solução para a eliminação destes bottlenecks, apontando medidas para a melhoria dos processos e recursos existentes para valorização do conhecimento gerado pela I&D e atender às necessidades das empresas, sem causar prejuízo à própria investigação e outras actividades da Instituição de I&D. Propomos uma Metodologia de análise que, além de identificar facilitadores críticos (no sentido de serem os mais importantes) para aquele cenário no que toca ao relacionamento com Empresas, também pode descrever um conceito de solução baseado na reengenharia de processos e procedimentos e introdução e utilização de novos conceitos, como os de Gestão de Informação, para aquela Instituição. Para isso procuraremos validar, baseado no conhecimento disponível e aplicação em casos reais, um conjunto de regras de boas práticas que, agrupadas nos facilitadores actuais de TT, reflictam o estado da arte na Gestão da Transferência de Tecnologia e ajudem a caracterizar as Instituições de I&D no que toca ao relacionamento com a envolvente Empresarial.
Resumo:
O desenvolvimento de equipamentos de descodificação massiva de genomas veio aumentar de uma forma brutal os dados disponíveis. No entanto, para desvendarmos informação relevante a partir da análise desses dados é necessário software cada vez mais específico, orientado para determinadas tarefas que auxiliem o investigador a obter conclusões o mais rápido possível. É nesse campo que a bioinformática surge, como aliado fundamental da biologia, uma vez que tira partido de métodos e infra-estruturas computacionais para desenvolver algoritmos e aplicações informáticas. Por outro lado, na maior parte das vezes, face a novas questões biológicas é necessário responder com novas soluções específicas, pelo que o desenvolvimento de aplicações se torna um desafio permanente para os engenheiros de software. Foi nesse contexto que surgiram os principais objectivos deste trabalho, centrados na análise de tripletos e de repetições em estruturas primárias de DNA. Para esse efeito, foram propostos novos métodos e novos algoritmos que permitirem o processamento e a obtenção de resultados sobre grandes volumes de dados. Ao nível da análise de tripletos de codões e de aminoácidos foi proposto um sistema concebido para duas vertentes: por um lado o processamento dos dados, por outro a disponibilização na Web dos dados processados, através de um mecanismo visual de composição de consultas. Relativamente à análise de repetições, foi proposto e desenvolvido um sistema para identificar padrões de nucleótidos e aminoácidos repetidos em sequências específicas, com particular aplicação em genes ortólogos. As soluções propostas foram posteriormente validadas através de casos de estudo que atestam a mais-valia do trabalho desenvolvido.
Resumo:
A presente investigação tem como objecto a cultura profissional docente e a gestão escolar das escolas públicas e privadas em estudo comparado. Entre a cultura organizacional e a cultura profissional existe uma relação dialéctica em que os dois tipos de cultura se influenciam reciprocamente. Em nossa opinião, a cultura profissional docente é influenciada pela cultura da organização, dependendo esta da gestão e liderança escolares. Ao pretendermos comparar a cultura docente no ensino público e privado teremos que analisar primeiro as problemáticas inerentes aos dois tipos de instituição, no que as aproxima e no que as distingue, não só, no que se refere ao seu funcionamento e organização, mas também ao tipo de cultura escolar e cultura docente dominantes. Justifica-se, assim, que abordemos no decurso do estudo questões variadas, dada a natureza complexa da “cultura profissional docente” que surge em estreita ligação com outras variáveis, como a gestão e liderança escolares. No que respeita à metodologia de investigação seguida, metodologia qualitativa e quantitativa, o estudo comparativo incidiu apenas em duas escolas públicas e duas escolas privadas – estudo de caso múltiplo. No que se refere aos instrumentos de recolha de informação, decidimos fazer um inquérito por questionário aos professores dos dois tipos de ensino e uma entrevista aos seus Directores. A opção pela metodologia mista surge como a mais conveniente e adequada à consecução dos objectivos desta investigação. A nossa hipótese de trabalho parte do pressuposto de que as culturas docentes devem ser geridas, construídas e aprendidas pelos docentes e até recriadas. Os Directores das escolas, através da sua gestão e liderança, podem desempenhar um papel «chave» na criação da cultura do estabelecimento, promovendo uma cultura docente de colaboração/cooperação. Em termos prospectivos, a construção de culturas de colaboração/cooperação e interdependência visam melhorar a qualidade do ensino. Nas escolas estudadas verificou-se uma evolução das culturas individualistas balcanizadas para as culturas colaborativas.
Resumo:
Acompanhando o crescente e recente interesse pela actividade do professor em sala de aula, esta investigação visa analisar, grosso modo, o papel assumido pelas ferramentas didácticas quer nas práticas docentes propriamente ditas quer no objecto efectivamente ensinado em sala de aula. Procuramos analisar, em síntese, de que forma a introdução de uma nova ferramenta de ensino – uma sequência didáctica – a mobilizar, in loco, pelo professor poderá gerar transformações não só nos próprios procedimentos de ensino do professor como também na própria forma como o objecto de ensino é (re)configurado no seio das interacções didácticas. Esta é, assim, a questãochave da nossa pesquisa, fundada em diferentes mas complementares correntes teóricas. De molde a procurar obter uma resposta a tal interrogação, desenhámos uma investigação em redor, concretamente, do ensino da escrita do texto de opinião, em turmas de sexto ano de escolaridade, que se desenrolou em duas grandes fases: i) numa primeira, cada professor ensina o objecto como lhe apraz; ii) numa segunda, cada professor procede, de novo, ao ensino desse objecto, mas, agora, com a nova ferramenta didáctica (a sequência didáctica) que a cada um é dada pela investigadora. A recolha dos dados efectuou-se mediante a gravação audiovisual das próprias aulas, realizando-se também entrevistas várias, com propósitos distintos, aos professores, antes e após cada uma das supracitadas fases. Os resultados demonstram a existência de uma série de transformações quer no plano das práticas dos professores quer no âmbito do objecto efectivamente ensinado. No entanto, foi também possível identificar aspectos vários em que a mudança não ocorreu ou, pelo menos, não foi significativa. Perante estes resultados, lançámo-nos ainda na formulação de determinadas perguntas, pistas para futuras investigações, cuja pertinência se nos afigura evidente, se se quiser reequacionar o papel das ferramentas didácticas no trabalho, em sala de aula, do professor.
Resumo:
O presente trabalho propõe-se integrar a percepção que os indivíduos fazem das medidas de minimização de ruído, utilizadas em Portugal, na avaliação do ambiente sonoro em zonas urbanas. O trabalho é composto por um estudo sobre a avaliação da estrutura cognitiva (atitude) dos indivíduos, nomeadamente o significado que eles atribuem ao ruído de tráfego urbano, pela avaliação acústica e psicoacustica de várias medidas de minimização de ruído utilizadas em Portugal, e por um inquérito sócio acústico que pretende relacionar ambos os aspectos referidos. Pela análise dos estudos desenvolvidos, é elaborada uma metodologia para a integração de aspectos qualitativos (percepção humana), na avaliação do ambiente sonoro.
Resumo:
In this thesis we perform a detailed analysis of the state of polarization (SOP) of light scattering process using a concatenation of ber-coil based polarization controllers (PCs). We propose a polarization-mode dispersion (PMD) emulator, built through the concatenation of bercoil based PCs and polarization-maintaining bers (PMFs), capable of generate accurate rst- and second-order PMD statistics. We analyze the co-propagation of two optical waves inside a highbirefringence ber. The evolution along the ber of the relative SOP between the two signals is modeled by the de nition of the degree of co-polarization parameter. We validate the model for the degree of co-polarization experimentally, exploring the polarization dependence of the four-wave mixing e ect into a ber with high birefringence. We also study the interaction between signal and noise mediated by Kerr e ect in optical bers. A model accurately describing ampli ed spontaneous emission noise in systems with distributed Raman gain is derived. We show that the noise statistics depends on the propagation distance and on the signal power, and that for distances longer than 120 km and signal powers higher than 6 mW it deviates signi catively from the Gaussian distribution. We explore the all-optical polarization control process based on the stimulated Raman scattering e ect. Mapping parameters like the degree of polarization (DOP), we show that the preferred ampli cation of one particular polarization component of the signal allows a polarization pulling over a wavelength range of 60 nm. The e ciency of the process is higher close to the maximum Raman gain wavelength, where the DOP is roughly constant for a wavelength range of 15 nm. Finally, we study the polarization control in quantum key distribution (QKD) systems with polarization encoding. A model for the quantum bit error rate estimation in QKD systems with time-division multiplexing and wavelength-division multiplexing based polarization control schemes is derived.
Resumo:
O presente trabalho foca-se na ligação das actividades inward e outward das pequenas e médias empresas do sector industrial do distrito de Aveiro. O trabalho explora as ligações inward-outward e os seus benefícios. Analisa mais em profundidade a perspectiva do importador e a sua relação com o fornecedor, visto ser uma área pouco analisada na literatura. As actividades inward como a compra de máquinas, a procura de matérias-primas criam oportunidades para construir relações mais próximas com os fornecedores estrangeiros. Para analisar esta situação, foi realizado um questionário às empresas do distrito de Aveiro.
Resumo:
Numa Sociedade do Conhecimento como a nossa, a leitura é de importância capital para o exercício efetivo da cidadania e a Escola é um dos espaços privilegiados para a formação de leitores competentes. Conhecido o deficiente domínio da compreensão leitora evidenciado pela população portuguesa em geral e pelos estudantes em particular, é necessário repensar as práticas pedagógico-didáticas associadas ao ensino e aprendizagem da compreensão na leitura e convertê-las em instrumentos de motivação para a leitura e de aquisição e desenvolvimento de competências neste domínio e não reduzi-la a uma mera aprendizagem escolar. Enquadrado pela evolução da epistemologia científica e pelo seu impacto no desenho atual da Didática de Línguas, este estudo visa contribuir para a implementação de um ensino/aprendizagem da língua portuguesa efetivamente direcionado para o desenvolvimento de competências transversais em compreensão na leitura. Para o fundamentar teoricamente e para melhor podermos analisar e problematizar os dados a recolher, procurámos compreender as características da sociedade atual e os desafios que lança à Escola, bem como as linhas de base da atual conceção de Educação e sua relação com os atuais contextos sociais. Refletimos também sobre o estatuto e papel da língua portuguesa no contexto do sistema de ensino português, a importância da compreensão na leitura numa abordagem transversal do ensino e da aprendizagem da língua portuguesa e o papel do manual escolar na motivação para a leitura e na aquisição e desenvolvimento de competências neste domínio. Através da análise de manuais de Língua Portuguesa para os três ciclos do Ensino Básico, procurámos determinar em que medida estes vão ao encontro das diretrizes que definem um ensino/aprendizagem da língua portuguesa orientado para o desenvolvimento de competências transversais em compreensão na leitura e definir princípios que possam contribuir para a sua transformação, tornando-os mais adequados à consecução desses objetivos. Os mesmos princípios poderão promover e fundamentar uma seleção mais criteriosa dos manuais a adotar. Do ponto de vista metodológico, estamos perante um estudo de natureza qualitativa. Recorremos à análise documental, como técnica de recolha de dados, e, para a levar a cabo, construímos uma grelha, tendo em conta os princípios definidos pela literatura da especialidade e as diretrizes propostas pela política educativa portuguesa para o desenvolvimento de competências transversais em compreensão na leitura. Para o tratamento dos dados, recorremos à análise de conteúdo. Os resultados obtidos demonstram que, de um modo geral, os projetos editoriais analisados promovem um paradigma de ensino da compreensão na leitura que condiciona a consciência, o sentido crítico e a criatividade dos sujeitos-leitores e que não dá resposta às expectativas sociais. Para que os manuais de Língua Portuguesa contribuam efetivamente para o desenvolvimento de competências transversais em compreensão na leitura, o seu ensino explícito não deve centrar-se só nos textos literários, nem na transmissão de interpretações consagradas destes, que os alunos têm de memorizar. Deverão antes apostar mais em estratégias didáticas concretizadas através de atividades que envolvam os alunos em situações de leitura mais próximas da vida quotidiana, em que estes possam desempenhar um papel mais ativo, assumir maior responsabilidade no seu próprio processo de aprendizagem e interagir com diversos tipos de textos, para assim adquirirem estratégias de leitura adequadas e saberem mobilizá-las e utilizálas de acordo com as circunstâncias concretas em questão.