38 resultados para Circos tradicionais nômades
Resumo:
A presente tese investiga o processo de tomada de decisão na gestão de cadeias de abastecimento, utilizando um quadro de análise de opções reais. Especificamente, estudamos tópicos como o nível de inventário ideal para protecção contra a incerteza da procura, o momento para implementação de capacidade flexível em mercados onde existe complexidade no mix de produtos, o tempo para o reforço do factor trabalho visando requisitos de serviço ao mercado, e as decisões entre integração e outsourcing num ambiente de incerteza. Foram usadas metodologias de tempo discreto e contínuo para identificar o valor ideal e o calendário das opções a adoptar, quando a procura é estocástica. Além disso, foram considerados os efeitos dos requisitos dos mercados, como a complexidade na oferta de produtos e o nível de serviço. A procura é representada recorrendo a diferentes processos estocásticos, o impacto de saltos inesperados também é explorado, reforçando a generalização dos modelos a diferentes condições de negócio. A aplicabilidade dos modelos que apresentamos permite a diversificação e o enriquecimento da literatura sobre a abordagem de opções reais, no âmbito das cadeias de abastecimento. Níveis de inventário flexíveis e capacidades flexíveis são característicos das cadeias de abastecimento e podem ser usados como resposta à incerteza do mercado. Esta tese é constituída por ensaios que suportam a aplicação dos modelos, e consiste num capítulo introdutório (designado por ensaio I) e mais seis ensaios sobre factores que discutem o uso de medidas de flexibilidade nas cadeias de abastecimento, em ambientes de incerteza, e um último ensaio sobre a extensão do conceito de flexibilidade ao tratamento da avaliação de planos de negócio. O segundo ensaio que apresentamos é sobre o valor do inventário num único estádio, enquanto medida de flexibilidade, sujeita ao crescente condicionalismo dos custos com posse de activos. Introduzimos uma nova classificação de artigos para suportar o indicador designado por overstock. No terceiro e quarto ensaio ampliamos a exploração do conceito de overstock, promovendo a interacção e o balanceamento entre vários estádios de uma cadeia de abastecimento, como forma de melhorar o desempenho global. Para sustentar a aplicação prática das abordagens, adaptamos o ensaio número três à gestão do desempenho, para suportar o estabelecimento de metas coordenadas e alinhadas; e adaptamos o quarto ensaio à coordenação das cadeias de abastecimento, como auxiliar ao planeamento integrado e sequencial dos níveis de inventário. No ensaio cinco analisamos o factor de produção “tecnologia”, em relação directa com a oferta de produtos de uma empresa, explorando o conceito de investimento, como medida de flexibilidade nas componentes de volume da procura e gama de produtos. Dedicamos o ensaio número seis à análise do factor de produção “Mão-de-Obra”, explorando as condicionantes para aumento do número de turnos na perspectiva económica e determinando o ponto crítico para a tomada de decisão em ambientes de incerteza. No ensaio número sete exploramos o conceito de internalização de operações, demarcando a nossa análise das demais pela definição do momento crítico que suporta a tomada de decisão em ambientes dinâmicos. Complementamos a análise com a introdução de factores temporais de perturbação, nomeadamente, o estádio de preparação necessário e anterior a uma eventual alteração de estratégia. Finalmente, no último ensaio, estendemos a análise da flexibilidade em ambientes de incerteza ao conceito de planos de negócio. Em concreto, exploramos a influência do número de pontos de decisão na flexibilidade de um plano, como resposta à crescente incerteza dos mercados. A título de exemplo, usamos o mecanismo de gestão sequencial do orçamento para suportar o nosso modelo. A crescente incerteza da procura obrigou a um aumento da agilidade e da flexibilidade das cadeias de abastecimento, limitando o uso de muitas das técnicas tradicionais de suporte à gestão, pela incapacidade de incorporarem os efeitos da incerteza. A flexibilidade é claramente uma vantagem competitiva das empresas que deve, por isso, ser quantificada. Com os modelos apresentados e com base nos resultados analisados, pretendemos demonstrar a utilidade da consideração da incerteza nos instrumentos de gestão, usando exemplos numéricos para suportar a aplicação dos modelos, o que claramente promove a aproximação dos desenvolvimentos aqui apresentados às práticas de negócio.
Resumo:
A Rede Natura 2000 (RN2000), uma rede de áreas consideradas chave para a conservação da biodiversidade no território da União Europeia, tem-se deparado com um difícil processo de implementação e operacionalização. Nos casos em que o cumprimento dos objectivos da RN2000 implica um reajustamento das políticas de uso do solo e de práticas sociais concretas, é necessário envolver um conjunto muito alargado de actores e instituições a várias escalas numa rede de processos colaborativos. Ao mesmo tempo, a aplicação de procedimentos de avaliação ambiental é central para a aprovação de certos projectos, programas ou planos em áreas RN2000. Quando toma a forma de uma Avaliação de Impacte Ambiental ou da Avaliação Ambiental Estratégica, a avaliação ambiental contém necessariamente uma componente de participação pública, potencialmente importante para tornar a governação ambiental mais inclusiva, isto é, mais participada e negociada com as administrações e actores locais. No entanto, devido à pluralidade de relações entre indivíduos, as respectivas comunidades e lugares específicos, resultantes da interacção histórica entre estes, os ambientes acumulam representações múltiplas que conduzem a diferentes interpretações acerca de intervenções concretas sobre o território e do que a sustentabilidade deste deve representar. As frequentes divergências nas referidas interpretações podem levar a conflitos e controvérsias que, por sua vez, criam dificuldades para mobilizar esforços colectivos, colocando, assim, poderosos obstáculos à efectiva protecção da biodiversidade. Nesta dissertação, a implementação da RN2000 no contexto da governação ambiental da Ria de Aveiro um complexo estuário semi-natural dividido em dez municípios e sob a tutela de várias entidades com responsabilidades espaciais é abordada através de uma exploração discursiva de um acervo composto por pareceres enviados no âmbito da consulta pública e institucional dos procedimentos de avaliação ambiental de seis projectos com potenciais implicações para a respectiva Zona de Protecção Especial. Através da exploração das representações que diferentes actores sociais evidenciam sobre ambientes específicos, das narrativas através das quais fazem sentido do seu lugar e papel nos respectivos ambientes sociais e ecológicos, e ainda das formas como a linguagem é estrategicamente utilizada em relação dialéctica com as referidas representações, esta análise do discurso pretende contribuir para melhorar a governação ambiental relativamente a aspectos específicos da participação pública, resolução de conflitos e elaboração e implementação de políticas no sentido de estas se tornarem mais inclusivas e contextualizadas. Nos pareceres submetidos, verificou-se que a problemática da hidrodinâmica tem ocupado um lugar central, sendo crescentemente evidente um retrato da situação actual em que a actividade portuária aparece como o principal responsável por efeitos negativos sobre os ecossistemas locais e as actividades socioeconómicas tradicionais como a salicultura e a agricultura nas zonas ribeirinhas. Neste âmbito, determinados temas discursivos sugerem fragilidades ao nível da governação deste território e poderão, simultaneamente, significar dificuldades para os interesses da biodiversidade local. Além dos interesses divergentes dos diferentes actores sociais, do elevado grau de desconfiança nas instituições responsáveis e na validade dos estudos que têm sido apresentados para justificar intervenções e da estória de marginalização que vem sendo construída pelos actores que se percepcionam como mais afectados pelo avanço da cunha salina aspectos que potencialmente dificultam dinâmicas colaborativas , a convicção largamente disseminada de que estes problemas ambientais são, através do conhecimento científico e da capacidade física de intervenção, compatibilizáveis num eventual equilíbrio, poderá constituir um entrave para a procura de soluções efectivamente alternativas. Por outro lado, outros padrões discursivos identificados poderão facilitar o cumprimento dos objectivos da RN2000. Em particular, entre vários intervenientes, parece estar em expansão o discurso de que o desenvolvimento dos municípios que envolvem a Ria de Aveiro deve voltar a virar-se para esta, isto é, voltar às suas raízes socioeconómicas ou a novas formas de explorar a Ria enquanto elemento generativo das identidades colectivas locais. A sua significância afectiva, simbólica, identitária e económica parecem ser as razões que mais peso têm para os actores sociais da Ria quererem proteger os ecossistemas locais, e não tanto o facto de estes se encontrarem designados ao abrigo da RN2000, cujo estatuto parece ter servido sobretudo para reforçar argumentos alimentados pelas preocupações referidas. No entanto, uma figura legal como a RN2000, que pretende recuperar ou preservar a biodiversidade associada a um imaginário com conotações positivas, poderá encontrar nestas pretensões uma importante fonte de capital simbólico para se tornar mais presente no discurso (e no agir) das populações da Ria de Aveiro.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
The artefact and techno-centricity of the research into the architecture process needs to be counterbalanced by other approaches. An increasing amount of information is collected and used in the process, resulting in challenges related to information and knowledge management, as this research evidences through interviews with practicing architects. However, emerging technologies are expected to resolve many of the traditional challenges, opening up new avenues for research. This research suggests that among them novel techniques addressing how architects interact with project information, especially that indirectly related to the artefacts, and tools which better address the social nature of work, notably communication between participants, become a higher priority. In the fields associated with the Human Computer Interaction generic solutions still frequently prevail, whereas it appears that specific alternative approaches would be particularly in demand for the dynamic and context dependent design process. This research identifies an opportunity for a process-centric and integrative approach for architectural practice and proposes an information management and communication software application, developed for the needs discovered in close collaboration with architects. Departing from the architects’ challenges, an information management software application, Mneme, was designed and developed until a working prototype. It proposes the use of visualizations as an interface to provide an overview of the process, facilitate project information retrieval and access, and visualize relationships between the pieces of information. Challenges with communication about visual content, such as images and 3D files, led to a development of a communication feature allowing discussions attached to any file format and searchable from a database. Based on the architects testing the prototype and literature recognizing the subjective side of usability, this thesis argues that visualizations, even 3D visualizations, present potential as an interface for information management in the architecture process. The architects confirmed that Mneme allowed them to have a better project overview, to easier locate heterogeneous content, and provided context for the project information. Communication feature in Mneme was seen to offer a lot of potential in design projects where diverse file formats are typically used. Through empirical understanding of the challenges in the architecture process, and through testing the resulting software proposal, this thesis suggests promising directions for future research into the architecture and design process.
Resumo:
O trabalho que apresentamos, “O Quadro Interativo no ensino do Português: dos recursos aos discursos”, situa-se na área do Multimédia em Educação e, mais especificamente, no domínio da tecnologia e pedagogia em sala de aula. Partimos de um projeto de implementação de quadros interativos em agrupamentos/escolas do interior do país, associado a um Centro de Formação e procurámos evidenciar a forma como essa tecnologia levou à introdução de recursos digitais de aprendizagem na unidade curricular de Português. Nesse âmbito, fizemos uma análise sobre os tipos, funcionalidades e usos pelos professores e estudantes no processo de ensino e aprendizagem com os QIM. Analisámos também algumas estratégias de utilização no desenvolvimento de competências essenciais da língua e a interação que proporcionaram no ambiente educativo. Para percebermos as razões e fundamentos que estiveram na base da investigação, procurámos, na primeira parte do nosso trabalho, partir de três vertentes de uma conjuntura que fundamenta a aprendizagem no século XXI: a passagem de uma sociedade da informação para uma sociedade do conhecimento como um processo que radica numa comunicação em rede e na criação de conhecimento(s) através de recursos digitais; o desenvolvimento de competências adequadas e que conduz os indivíduos para ambientes de aprendizagem com as tecnologias; e numa Escola mais familiarizada com as tecnologias, onde o ato de educar cria novos desafios a todos os agentes educativos. Notámos que a capacidade de mobilizar a informação e o conhecimento na rede reclama atitudes dinâmicas, flexíveis e adaptadas à multiculturalidade. Esta característica favorece a construção de aprendizagens multifacetadas, a inclusão progressiva do individuo na “aldeia global”, tornando-o também cada vez mais criativo e produtivo. A promoção de espaços interativos de aprendizagem facilita esse processo e o conhecimento desenvolve-se numa interação social mediada por tecnologias que nos fazem participar nessa multiculturalidade, diversidade do universo e nas histórias pessoais e coletivas. Num ambiente com estas características, torna-se necessário passar de um conceito de ensino declarado nos saberes básicos ou em conhecimentos factuais para uma estratégia de aprendizagem que incida sobre o desenvolvimento e aquisição de outras habilidades. A aquisição de saberes no âmbito da leitura, da oralidade e da escrita tornamse importantes para os indivíduos porquanto esses saberes transformam-se em competências transversais para outros domínios e literacias. Tentámos mostrar que a escola do futuro terá de ser um espaço educativo que implique ambientes de aprendizagem onde vão confluir várias ferramentas tecnológicas, que arrastam consigo outros recursos e outras possibilidades de acesso à informação e à construção de conhecimento. Para isso, a escola está obrigada a mudar alguns conceitos e estratégias e a focar-se no desenvolvimento de competências para a vida. A definição de recurso educativo ou recurso de aprendizagem e a aceção do quadro interativo como um recurso tecnológico, que envolve outros recursos, digitais e multimédia, levou-nos a concluir sobre as potenciais mais-valias deste equipamento. Para além da apresentação da informação, da orientação da atenção e das aprendizagens para o grupo - turma, abre-se a possibilidade de relacionar e organizar conteúdos digitais multimédia, criar conhecimento e desenvolver competências de acordo com os interesses dos públicos em fase de escolarização. Reclama-se um padrão de qualidade nos recursos, avaliados e estruturados em função dos conteúdos, objetivos, desempenhos e currículos de aprendizagem dos aprendentes. Definimos o paradigma digital e as dinâmicas de comunicação e interação proporcionadas pelo quadro interativo. Concluímos que o QIM produz efeitos positivos sobre a participação dos estudantes, evidenciada por um comportamento mais positivo face às tarefas a realizar em sala de aula. Contudo, o papel desta ferramenta e dos recursos utilizados requerem dos professores e dos ambientes educativos novas práticas e modelos de comunicação mais interativos. A informação e o conhecimento tornam-se mais fluidos, diversos e atuais. Fluxos variados de informação em vários suportes e formatos ou pesquisas em tempo real podem ser facilmente incorporados, acedidos e manipulados durante as aulas. A partilha de materiais e recursos retroalimenta uma rede de informação e troca de conhecimentos, amplia a aprendizagem e cria comunidades de prática com as tecnologias. A inclusão do QIM, no contexto do ensino e aprendizagem do Português, promoveu a literacia digital; o desenvolvimento de recursos digitais de aprendizagem; criou ambientes educativos modernos, mais apelativos, criativos e inovadores. Conduziu a uma mudança de práticas, que se querem mais ajustadas às necessidades e expectativas dos estudantes, aos desafios dos novos tempos e aos objetivos de uma educação que reforça o papel e autonomia dos indivíduos no processo de aprendizagem. Por isso, a lógica de projeto ou as dinâmicas de trabalho em projeto devem conduzir a dinâmicas de escola que elevem os comportamentos dos professores para se familiarizarem com a tecnologia, mas também para desenvolverem competências tecnológicas e profissionais coadunadas com contextos educativos atuais. Os resultados disponíveis mostram um quadro predominantemente positivo das possibilidades educativas dos QIM no ensino do Português. O QIM apresenta um conjunto de potencialidades pedagógicas; incentiva ao uso de recursos digitais em vários formatos e com várias finalidades; propicia estratégicas de construção e reconstrução dos percursos de aprendizagem que levam ao desenvolvimento de competências essenciais da língua. Porém, há ainda alguns aspetos que necessitam de ser revistos para tornar os QIM ainda mais eficazes como ferramenta de ensino e aprendizagem em sala de aula. Assim: i. A introdução de recursos digitais de aprendizagem na sala de aula deve ser um processo bem refletido que conduza e valorize a aproximação do professor e dos estudantes, visto que ambos estão perante uma nova realidade de conceitos, representações e formatos que carecem de habilidades, capacidades, comportamentos e literacias próprias; ii. A transformação do ensino, no que respeita a uma aprendizagem mais autónoma e individualizada, não está generalizada com a introdução dos QIM nos contextos de aprendizagem observados. Parece haver um incentivo para abordagens tradicionais centradas no professor e nos conteúdos, uma vez que a aquisição de conhecimentos está também condicionada por um sistema educativo que considera esses conteúdos estritamente necessários para o desempenho de determinadas tarefas; iii. Pelos vários níveis de análise do discurso pedagógico que se institui com os QIM, o tipo que melhor o define é ainda o tipo unidirecional. O discurso interativo, tão badalado pelos modelos comunicacionais modernos e pelos conceitos inerentes às tecnologias interativas, parece ainda não ter sido bem compreendido e explorado nos benefícios que os QIM, os recursos digitais interativos e as tecnologias em geral podem trazer ao processo de ensino e aprendizagem do Português no 3º CEB.
Resumo:
Atualmente, a poluição atmosférica constitui uma das principais causas ambientais de mortalidade. Cerca de 30% da população europeia residente em áreas urbanas encontra-se exposta a níveis de poluição atmosférica superiores aos valores- limite de qualidade do ar legislados para proteção da saúde humana, representando o tráfego rodoviário uma das principais fontes de poluição urbana. Além dos poluentes tradicionais avaliados em áreas urbanas, os poluentes classificados como perigosos para a saúde (Hazard Air Pollutants - HAPs) têm particular relevância devido aos seus conhecidos efeitos tóxicos e cancerígenos. Neste sentido, a avaliação da exposição tornase primordial para a determinação da relação entre a poluição atmosférica urbana e efeitos na saúde. O presente estudo tem como principal objetivo o desenvolvimento e implementação de uma metodologia para avaliação da exposição individual à poluição atmosférica urbana relacionada com o tráfego rodoviário. De modo a atingir este objetivo, foram identificados os parâmetros relevantes para a quantificação de exposição e analisados os atuais e futuros potenciais impactos na saúde associados com a exposição à poluição urbana. Neste âmbito, o modelo ExPOSITION (EXPOSure model to traffIc-relaTed aIr pOllutioN) foi desenvolvido baseado numa abordagem inovadora que envolve a análise da trajetória dos indivíduos recolhidas por telemóveis com tecnologia GPS e processadas através da abordagem de data mining e análise geoespacial. O modelo ExPOSITION considera também uma abordagem probabilística para caracterizar a variabilidade dos parâmetros microambientais e a sua contribuição para exposição individual. Adicionalmente, de forma a atingir os objetivos do estudo foi desenvolvido um novo módulo de cálculo de emissões de HAPs provenientes do transporte rodoviário. Neste estudo, um sistema de modelação, incluindo os modelos de transporteemissões- dispersão-exposição, foi aplicado na área urbana de Leiria para quantificação de exposição individual a PM2.5 e benzeno. Os resultados de modelação foram validados com base em medições obtidas por monitorização pessoal e monitorização biológica verificando-se uma boa concordância entre os resultados do modelo e dados de medições. A metodologia desenvolvida e implementada no âmbito deste trabalho permite analisar e estimar a magnitude, frequência e inter e intra-variabilidade dos níveis de exposição individual, bem como a contribuição de diferentes microambientes, considerando claramente a sequência de eventos de exposição e relação fonte-recetor, que é fundamental para avaliação dos efeitos na saúde e estudos epidemiológicos. O presente trabalho contribui para uma melhor compreensão da exposição individual em áreas urbanas, proporcionando novas perspetivas sobre a exposição individual, essenciais na seleção de estratégias de redução da exposição à poluição atmosférica urbana, e consequentes efeitos na saúde.
Resumo:
In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
Bioprocesses use microorganisms or cells in order to produce and/or obtain some desired products. Nowadays these strategies appear as a fundamental alternative to the traditional chemical processes. Amongst the many advantages associated to their use in the chemical, oil or pharmaceutical industries, their low cost, easily scale-up and low environmental impact should be highlighted. This work reports two examples of bioprocesses as alternatives to traditional chemical processes used by the oil and pharmaceutical industries. In the first part of this work it was studied an example of a bioprocess based on the use of microorganisms in enhanced oil recovery. Currently, due to high costs of oil and its scarcity, the enhanced oil recovery techniques become very attractive. Between the available techniques the use of microbial enhanced oil recovery (MEOR) has been highlighted. This process is based on the stimulation of indigenous microorganisms or by the injection of microorganism consortia to produce specific metabolites and hence increase the amount of oil recovered. In the first chapters of this work the isolation of several microorganisms from samples of paraffinic Brazilian oils is described, and their tensioactive and biodegradability properties are presented. Furthermore, the chemical structures of the biosurfactants produced by those isolates were also characterized. In the final chapter of the first part, the capabilities of some isolated bacteria to enhance the oil recovery of paraffinic Brazilian oils entrapped in sand-pack columns were evaluated. In the second part of this work it was investigated aqueous two-phase systems or aqueous biphasic systems (ABS) as extractive strategies for antibiotics directly from the fermented broth in which they are produced. To this goal, several aqueous two-phase systems composed of ionic liquids (ILs) and polymers were studied for the first time and their phase diagrams were determined. The novel ATPS appear as effective and economic methods to extract different biomolecules or/and biological products. Thus, aiming the initial antibiotics extraction purpose it was studied the influence of a wide range of ILs and polymers in the aqueous two-phase formation ability, as well as their influence in the partitioning of several type-molecules, such as amino acids, alkaloids and dyes. As a final chapter it is presented the capacity of these novel systems to extract the antibiotic tetracycline directly from the fermented broth of Streptomyces aureofaciens.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.
Resumo:
Considerando que, na sociedade atual, o conhecimento flui incessantemente, renovando-se a cada momento, o cidadão do séc. XXI confronta-se com novos desafios que exigem o desenvolvimento de novas competências. Os recursos da web social – como os fóruns de discussão online –, gratuitos e fáceis de utilizar, permitem que os indivíduos acedam à informação, construam conhecimento, partilhem interesses e desenvolvam múltiplas competências em colaboração. Face a esta realidade, as instituições de Ensino Superior têm vindo a reconhecer que os estudantes já não se sentem confortáveis com abordagens de ensino tradicionais, em que impera a transmissão de informação, preferindo envolver-se em experiências de aprendizagem em que possam interagir com a tecnologia, pelas potencialidades que já lhe reconhecem. Procurando ir ao encontro das exigências da sociedade e do mundo do trabalho atuais, o Processo de Bolonha veio renovar os cursos de Ensino Superior, centrando-os no estudante e no desenvolvimento da autonomia e da colaboração, entre outras competências. Esta tendência vai ao encontro da reconhecida valorização da colaboração com vista à melhoria do desempenho de um grupo profissional. Também no contexto educacional se reconhece o seu contributo para o desenvolvimento profissional do professor e a operacionalização de um ensino por competências. Compete à formação de professores lançar as bases deste movimento.A formação inicial de professores do 1º Ciclo do Ensino Básico tem, entre outras preocupações, a de levar o futuro professor a refletir sobre princípios didáticos que informem a conceção, implementação e avaliação de estratégias e atividades que contribuam para o desenvolvimento de competências nos alunos. Entre as competências a desenvolver nas crianças a frequentar este nível de escolaridade, no que concerne à aprendizagem da língua materna, figura a competência ortográfica, indispensável a uma boa comunicação escrita. Quanto mais cedo for automatizada, mais possibilidades o aluno terá de se ocupar prioritariamente de outros aspetos mais complexos e exigentes do processo de escrita. Tendo em vista estas preocupações, desenvolvemos um estudo, com futuros professores do 1º Ciclo do Ensino Básico a frequentar um mestrado profissionalizante da Universidade de Aveiro, cujos objetivos de investigação eram os seguintes: i) descrever as suas representações sobre colaboração; ii) compreender a influência dessas representações na adoção de práticas colaborativas num fórum de discussão online; iii) compreender o contributo da colaboração adotada num fórum de discussão online para a construção de conhecimento didático sobre a abordagem da ortografia; iv) compreender o contributo desse conhecimento para a conceção de instrumentos didáticos sobre a abordagem da ortografia. Numa primeira fase, o estudo desenvolveu-se com dois grupos de alunos, que nele participaram em dois anos letivos distintos (2009/2010 e 2010/2011), no contexto da unidade curricular de Didática da Língua Portuguesa (inserida no plano de estudos do 1º semestre do 1º ano do Mestrado em Educação Pré- Escolar e Ensino no 1º Ciclo do Ensino Básico da Universidade de Aveiro). Numa segunda fase (entre o 2º semestre do ano letivo de 2011/2012 e 1º semestre do ano letivo de 2012/2013), recolheu-se o resultado de uma intervenção didática desenvolvida por uma professora estagiária (participante na primeira fase do estudo), no âmbito da Prática Pedagógica Supervisionada, apoiada pelo Seminário de Investigação Educacional. Tratando-se de um estudo de caso, a investigação envolveu a recolha de dados através de inquérito por questionário disponibilizado online, uma reflexão individual apresentada por escrito, posts e documentos publicados num fórum de discussão online e instrumentos didáticos (planificação de aulas e relatório de estágio) elaborados pelos estudantes. Procedeu-se a uma análise de conteúdo fundamentada nos quadros teóricos e no estudo empírico.Os resultados vêm aprofundar a discussão em torno da utilização de ferramentas da web social no Ensino Superior, nomeadamente na formação inicial de professores, para desenvolver a colaboração, visando a construção de conhecimento didático, particularmente sobre a abordagem da ortografia. Por um lado, apontam para a influência de representações sobre colaboração na adoção dessa modalidade de trabalho num fórum de discussão online. Por outro, revelam a influência dessa modalidade no conhecimento didático coconstruído e apontam para uma valorização do mesmo por parte dos participantes no estudo, no momento de conceber, implementar e avaliar instrumentos didáticos. Daqui emergiram algumas sugestões pedagógico-didáticas com vista à promoção de práticas inovadoras no Ensino Superior, com recurso a ferramentas da web social, centradas na aprendizagem dos estudantes e no desenvolvimento da colaboração, particularmente na formação inicial de professores.
Resumo:
Os fogos florestais, embora possam ser encarados como um fenómeno natural, constituem igualmente uma ameaça com impactos negativos a vários níveis. A alteração dos regimes naturais do fogo por acção antrópica tem vindo a maximizar o potencial catastrófico do fenómeno em diferentes regiões do planeta, destacando-se, em particular, a Região Mediterrânica, onde o fogo constitui uma perturbação recorrente associada, por um lado, às características climáticas desta região e, por outro, às práticas tradicionais decorrentes da presença humana nessa área, numa extensão temporal de milhares de anos. Em Portugal, o problema dos fogos florestais assume uma expressividade de particular relevo, colocando-o entre os países do sul da Europa mais atingidos pelo fogo a cada Verão. Reconhecendo o papel das condições meteorológicas nas interacções envolvidas no processo de deflagração e propagação de incêndios, a identificação de condições meteorológicas propícias à ocorrência de incêndios, expressa sob a forma de índices de risco reveste-se de crucial importância para as operações de prevenção e combate aos incêndios, para além da mais-valia que constituem para os restantes sectores da sociedade. Adicionalmente, a detecção e monitorização de ocorrências de incêndios a partir de satélites tem vindo a assumir um papel preponderante, revelando-se fundamental enquanto fonte de alerta e pelas potencialidades que as bases de dados resultantes da observação contínua da Terra pelos satélites oferecem, no que às mais diversas áreas de investigação diz respeito. O presente trabalho explora, nas vertentes da prevenção de incêndios, a utilização de previsões de tempo de alta resolução espacial obtidas com o modelo WRF para a determinação das componentes do sistema FWI canadiano e sua disponibilização operacional. Os resultados apontam para um impacto positivo, em virtude do incremento da resolução espacial, da representação espacial do risco meteorológico de incêndio no território português. Paralelamente, apresentam-se os resultados do desenvolvimento de produtos de detecção de incêndios activos a partir da infra-estrutura de recepção de dados de satélite implementadas na Universidade de Aveiro, destacando a sua adequabilidade para a monitorização e identificação, em tempo quase-real, da ocorrência de fogos florestais em Portugal Continental.