981 resultados para Operador de consequência
Resumo:
Genericamente falando, os serviços sobre redes têm vindo a afastar-se de um modelo monolítico para um modelo de criação de serviços que permite ou - como é mais frequente - requer a cooperação entre vários Provedores de Serviço. A Internet, que tem vindo a forçar a convergência de serviços, mostra que começa a ser virtualmente impossível a um único operador fornecer qualquer serviço com um mínimo de interesse para os utilizadores. Esta tese foca-se em serviços de transporte (e.g., connectividade) e discute o impacto das fronteira que as ofertas de serviços têm com o negócio. A questão central é a seguinte: o que muda quando o mesmo serviço é oferecido não apenas por um mas por mais do que um Provedor de Serviço. Por um lado, esta tese cobre, em abs tracto, a noção de Provedor se Serviço, como evoluiu e em que sentido está a evoluir, particularmente num contexto de muitos Provedores de Serviço. Os primeiros capítulos desta tese analizam e propõem arquitecturas para cooperação inter-Provedor-de-Serviço e para serviços comuns tais como multimédia. Por outro lado, oferece-se soluções práticas, com as respectivas avaliações, para alguns problemas, que ainda hoje se mantêm em aberto, tais como encaminhamento inter-domínio, Qualidade-de-Serviço, Mobilidade e distribuição de conteúdos, tais como as contribuições relacionadas com o impacto da noção administrativa de Sistemas Autónomos sobre encaminhamento inter-domínio, uma arquitectura de transporte inter-domínio e o problema que levanta da ineficiência que decorre do planeamento não- cooperativo de Redes de Entrega de Conteúdos.
Resumo:
O advento da Internet e da Web, na década de 1990, a par da introdução e desenvolvimento das novas TIC e, por consequência, a emergência da Sociedade da Informação e do Conhecimento, implicaram uma profunda alteração na forma de análise dos processos de ensino-aprendizagem, já não apenas segundo um prisma cognitivista, mas, agora, também social, isto é, segundo a(s) perspetiva(s) construtivista(s). Simultaneamente, torna-se imperativo que, para que possam transformar-se em futuros trabalhadores de sucesso, isto é, trabalhadores de conhecimento (Gates, 1999), os sujeitos aprendentes passem a ser efetivamente educados/preparados para a Sociedade da Informação e do Conhecimento e, tanto quanto possível, através da educação/formação ao longo da vida (Moore e Thompson, 1997; Chute, Thompson e Hancock, 1999). Todavia, de acordo com Jorge Reis Lima e Zélia Capitão, não se deve considerar esta mudança de paradigma como uma revolução mas, antes, uma evolução, ou, mais concretamente ainda, uma “conciliação de perspectivas cognitivas e sociais” (Reis Lima e Capitão, 2003:53). Assim, às instituições de ensino/formação cumprirá a tarefa de preparar os alunos para as novas competências da era digital, promovendo “a aprendizagem dos pilares do conhecimento que sustentarão a sua aprendizagem ao longo da vida” (Reis Lima e Capitão, Ibidem:54), isto é, “aprender a conhecer”, “aprender a fazer”, “aprender a viver em comum”, e “aprender a ser” (Equipa de Missão para a Sociedade da Informação, 1997:39; negritos e sublinhados no original). Para outros, a Internet, ao afirmar-se como uma tecnologia ubíqua, cada vez mais acessível, e de elevado potencial, “vem revolucionando a gestão da informação, o funcionamento do mercado de capitais, as cadeias e redes de valor, o comércio mundial, a relação entre governos e cidadãos, os modos de trabalhar e de comunicar, o entretenimento, o contacto intercultural, os estilos de vida, as noções de tempo e de distância. A grande interrogação actual reside em saber se a Internet poderá também provocar alterações fundamentais nos modos de aprender e de ensinar” (Carneiro, 2002:17-18; destaques no original). Trata-se, portanto, como argumenta Armando Rocha Trindade (2004:10), de reconhecer que “Os requisitos obrigatórios para a eficácia da aprendizagem a ser assim assegurada são: a prévia disponibilidade de materiais educativos ou de formação de alta qualidade pedagógica e didáctica, tanto quanto possível auto-suficientes em termos de conteúdos teóricos e aplicados, bem como a previsão de mecanismos capazes de assegurar, permanentemente, um mínimo de interactividade entre docentes e aprendentes, sempre que quaisquer dificuldades destes possam manifestarse”. Esta questão é também equacionada pelo Eng.º Arnaldo Santos, da PT Inovação, quando considera que, à semelhança da “maioria dos países, a formação a distância em ambientes Internet e Intranet, vulgo e-Learning, apresenta-se como uma alternativa pedagógica em franca expansão. Portugal está a despertar para esta nova realidade. São várias as instituições nacionais do sector público e privado que utilizam o e-Learning como ferramenta ou meio para formar as suas pessoas” (Santos, 2002:26). Fernando Ramos acrescenta também que os sistemas de educação/formação que contemplam componentes não presenciais, “isto é que potenciam a flexibilidade espacial, têm vindo a recorrer às mais variadas tecnologias de comunicação para permitir a interacção entre os intervenientes, nomeadamente entre os professores e os estudantes. Um pouco por todo o mundo, e também em Portugal, se têm implantado sistemas (habitualmente designados como sistemas de ensino a distância), recorrendo às mais diversas tecnologias de telecomunicações, de que os sistemas de educação através de televisão ou os sistemas de tutoria por rádio ou telefone são exemplos bem conhecidos” (Ramos, 2002b:138-139). Ora, o nosso estudo entronca precisamente na análise de um sistema ou plataforma tecnológica de gestão de aprendizagens (Learning Management System - LMS), o MOODLE, procurando-se, deste modo, dar resposta ao reconhecimento de que “urge investigar sobre a utilização real e pedagógica da plataforma” (Carvalho, 2007:27). Por outro lado, não descurando o rol de interrogações de outros investigadores em torno da utilização do MOODLE, nem enveredando pelas visões mais céticas que inclusive pressagiam a sua “morte” (Fernandes, 2008b:134), também nós nos questionamos se esta ferramenta nem sequer vai conseguir transpor “a fase de final de entusiasmo, e tornar-se uma ferramenta de minorias e de usos ocasionais?” (Fernandes, Op. cit.:133).
Resumo:
Durante o último século, as populações de cervídeos têm aumentado substancialmente um pouco por toda a Europa. O veado Cervus elaphus não foi exceção, apresentando atualmente uma ampla distribuição geográfica. Após a quase extinção de todas as populações selvagens desta espécie em Portugal, o número de efetivos de veado e a área de distribuição da espécie têm aumentado significativamente nas últimas décadas. Esta proliferação deveu-se fundamentalmente aos processos de reintrodução implementados em algumas zonas do país, como foi o caso da Serra da Lousã. Dez anos após a reintrodução, a expansão geográfica e demográfica é já uma realidade e a espécie assume um papel relevante tanto do ponto de vista cinegético como turístico. Com o aumento das populações de ungulados, surge a necessidade de aumentar o conhecimento existente sobre estas espécies, particularmente ao nível das estimativas populacionais, do uso e seleção de habitat, do comportamento e da fisiologia das populações. Neste sentido, um dos objetivos foi comparar quatro métodos de contagem de excrementos em termos de estimativa populacional, aplicabilidade e eficiência. Face aos resultados obtidos, o método de transectos lineares com distance sampling revelou-se o mais eficiente, providenciando uma boa precisão num menor tempo. Relativamente ao uso e seleção do habitat, recorrendo a transectos de contagem de excrementos e a observações diretas, verificou-se que o veado seleciona positivamente habitats que lhe proporcionam simultaneamente alimento e refúgio, como é o caso das áreas de ecótono. A preferência por áreas de ecótono evidencia um comportamento adaptativo de maximização de energia, no qual os animais optam por procurar refúgio na proximidade das áreas de alimentação de forma a minimizarem os dispêndios energéticos. Em termos de dinâmica populacional, verificou-se uma relação entre a densidade de veado e o tamanho dos seus grupos, bem como o efeito nos mesmos do coberto vegetal. Contudo, dado o seu alto dimorfismo sexual em termos de tamanho corporal, as preferências de habitat podem também ser em parte responsáveis pela segregação sexual fora da época de reprodução. Face aos resultados obtidos através do método de observação direta de animais, a segregação sexual surge como consequência da interação entre fatores sociais e de habitat, que resultam de diferentes estratégias reprodutivas por parte de ambos os sexos. As diferentes estratégias reprodutivas são também notórias em termos de condição física e imunológica, com os machos a aumentarem a sua condição durante as épocas de primavera e verão de forma a melhorarem a sua performance durante o cio, e as fêmeas a viverem grande parte do ano no limiar da condição física devido ao seu investimento na sobrevivência da sua descendência. Globalmente, o veado apresenta uma boa adaptação à Serra da Lousã e representa um importante recurso natural para esta região. Contudo, para que a proliferação desta população selvagem continue, é necessária a implementação de medidas de gestão adequadas a este ecossistema mediterrâneo.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
A vida da sociedade atual é dependente dos recursos fósseis, tanto a nível de energia como de materiais. No entanto, tem-se verificado uma redução das reservas destes recursos, ao mesmo tempo que as necessidades da sociedade continuam a aumentar, tornando cada vez mais necessárias, a produção de biocombustíveis e produtos químicos. Atualmente o etanol é produzido industrialmente a partir da cana-de-açúcar e milho, matérias-primas usadas na alimentação humana e animal. Este fato desencadeou o aumento de preços dos alimentos em todo o mundo e, como consequência, provocou uma série de distúrbios sociais. Os subprodutos industriais, recursos independentes das cadeias alimentares, têm-se posicionado como fonte de matérias-primas potenciais para bioprocessamento. Neste sentido, surgem os subprodutos gerados em grande quantidade pela indústria papeleira. Os licores de cozimento da madeira ao sulfito ácido (SSLs) são uma matériaprima promissora, uma vez que durante este processo os polissacarídeos da madeira são hidrolisados originando açúcares fermentáveis. A composição dos SSLs varia consoante o tipo de madeira usada no processo de cozimento (de árvores resinosas, folhosas ou a mistura de ambas). O bioprocessamento do SSL proveniente de folhosas (HSSL) é uma metodologia ainda pouco explorada. O HSSL contém elevadas concentrações de açúcares (35-45 g.L-1), na sua maioria pentoses. A fermentação destes açúcares a bioetanol é ainda um desafio, uma vez que nem todos os microrganismos são capazes de fermentar as pentoses a etanol. De entre as leveduras capazes de fermentar naturalmente as pentoses, destaca-se a Scheffersomyces stipitis, que apresenta uma elevada eficiência de fermentação. No entanto, o HSSL contém também compostos conhecidos por inibirem o crescimento de microrganismos, dificultando assim o seu bioprocessamento. Neste sentido, o principal objetivo deste trabalho foi a produção de bioetanol pela levedura S. stipitis a partir de HSSL, resultante do cozimento ao sulfito ácido da madeira de Eucalyptus globulus. Para alcançar este objetivo, estudaram-se duas estratégias de operação diferentes. Em primeiro lugar estudou-se a bio-desintoxicação do HSSL com o fungo filamentoso Paecilomyces variotii, conhecido por crescer em resíduos industriais. Estudaram-se duas tecnologias fermentativas diferentes para a biodesintoxicação do HSSL: um reator descontínuo e um reator descontínuo sequencial (SBR). A remoção biológica de inibidores do HSSL foi mais eficaz quando se usou o SBR. P. variotii assimilou alguns inibidores microbianos como o ácido acético, o ácido gálico e o pirogalol, entre outros. Após esta desintoxicação, o HSSL foi submetido à fermentação com S. stipitis, na qual foi atingida a concentração máxima de etanol de 2.36 g.L-1 com um rendimento de 0.17 g.g-1. P. variotti, além de desintoxicar o HSSL, também é útil na produção de proteína microbiana (SCP) para a alimentação animal pois, a sua biomassa é rica em proteína. O estudo da produção de SCP por P. variotii foi efetuado num SBR com HSSL sem suplementos e suplementado com sais. A melhor produção de biomassa foi obtida no HSSL sem adição de sais, tendo-se obtido um teor de proteína elevado (82,8%), com uma baixa concentração de DNA (1,1%). A proteína continha 6 aminoácidos essenciais, mostrando potencial para o uso desta SCP na alimentação animal e, eventualmente, em nutrição humana. Assim, a indústria papeleira poderá integrar a produção de bioetanol após a produção SCP e melhorar a sustentabilidade da indústria de pastas. A segunda estratégia consistiu em adaptar a levedura S. stipitis ao HSSL de modo a que esta levedura conseguisse crescer e fermentar o HSSL sem remoção de inibidores. Operou-se um reator contínuo (CSTR) com concentrações crescentes de HSSL, entre 20 % e 60 % (v/v) durante 382 gerações em HSSL, com uma taxa de diluição de 0.20 h-1. A população adaptada, recolhida no final do CSTR (POP), apresentou uma melhoria na fermentação do HSSL (60 %), quando comparada com a estirpe original (PAR). Após esta adaptação, a concentração máxima de etanol obtida foi de 6.93 g.L-1, com um rendimento de 0.26 g.g-1. POP possuía também a capacidade de metabolizar, possivelmente por ativação de vias oxidativas, compostos derivados da lenhina e taninos dissolvidos no HSSL, conhecidos inibidores microbianos. Por fim, verificou-se também que a pré-cultura da levedura em 60 % de HSSL fez com que a estirpe PAR melhorasse o processo fermentativo em HSSL, em comparação com o ensaio sem pré-cultura em HSSL. No entanto, no caso da estirpe POP, o seu metabolismo foi redirecionado para a metabolização dos inibidores sendo que a produção de etanol decresceu.
Resumo:
A fidelidade da síntese proteica é fundamental para a estabilidade do proteoma e para a homeostasia celular. Em condições fisiológicas normais as células têm uma taxa de erro basal associada e esta muitas vezes aumenta com o envelhecimento e doença. Problemas na síntese das proteínas estão associados a várias doenças humanas e aos processos de envelhecimento. De facto, a incorporação de erros nas proteínas devido a tRNAs carregados pelas aminoacil-tRNA sintetases com o amino ácido errado causa doenças neurodegenerativas em humanos e ratos. Ainda não é claro como é que estas doenças se desenvolvem e se são uma consequência directa da disrupção do proteoma ou se são o resultado da toxicidade produzida pela acúmulação de proteínas mal traduzidas ao nível do ribossoma. Para elucidar como é que as células eucarióticas lidam com proteínas aberrantes e agregados proteicos (stress proteotóxico) desenvolvemos uma estratégia para destabilizar o proteoma. Para isso estabelecemos um sistema de erros de tradução em embriões de peixe zebra que assenta em tRNAs mutantes capazes de incorporar erradamente serina nas proteínas. As proteínas produzidas neste sistema despoletam as vias de resposta ao stress, nomeadamente a via da ubiquitina-proteassoma (UPP – “ubiquitin protesome pathway”) e a via do retículo endoplasmático (UPR – “unfolded protein response”). O stress proteotóxico gerado pelos erros de tradução altera a expressão génica e perfis de expressão de miRNAs, o desenvolvimento embrionário e viabilidade, aumenta a produção de espécies reactivas de oxigénio (ROS), leva ainda à acumulação de agregados proteicos e à disfunção mitocondrial. As malformações embrionárias e fenótipos de viabilidade que observámos foram revertidos por antioxidantes, o que sugere que os ROS desempenham papéis importantes nos fenótipos degenerativos celulares induzidos pela produção de proteínas aberrantes e agregação proteica. Estabelecemos ainda uma linha de peixe zebra transgénica para o estudo do stress proteotóxico. Este trabalho mostra que a destabilização do proteoma em embriões de peixe zebra com tRNAs mutantes é uma boa metodologia para estudar a biologia do stress proteotóxico visto que permite a agregação controlada do proteoma, mimetizando os processos de agregação de proteínas que ocorrem naturalmente durante o envelhecimento e em doenças conformacionais humanas.
Resumo:
For the actual existence of e-government it is necessary and crucial to provide public information and documentation, making its access simple to citizens. A portion, not necessarily small, of these documents is in an unstructured form and in natural language, and consequently outside of which the current search systems are generally able to cope and effectively handle. Thus, in thesis, it is possible to improve access to these contents using systems that process natural language and create structured information, particularly if supported in semantics. In order to put this thesis to test, this work was developed in three major phases: (1) design of a conceptual model integrating the creation of structured information and making it available to various actors, in line with the vision of e-government 2.0; (2) definition and development of a prototype instantiating the key modules of this conceptual model, including ontology based information extraction supported by examples of relevant information, knowledge management and access based on natural language; (3) assessment of the usability and acceptability of querying information as made possible by the prototype - and in consequence of the conceptual model - by users in a realistic scenario, that included comparison with existing forms of access. In addition to this evaluation, at another level more related to technology assessment and not to the model, evaluations were made on the performance of the subsystem responsible for information extraction. The evaluation results show that the proposed model was perceived as more effective and useful than the alternatives. Associated with the performance of the prototype to extract information from documents, comparable to the state of the art, results demonstrate the feasibility and advantages, with current technology, of using natural language processing and integration of semantic information to improve access to unstructured contents in natural language. The conceptual model and the prototype demonstrator intend to contribute to the future existence of more sophisticated search systems that are also more suitable for e-government. To have transparency in governance, active citizenship, greater agility in the interaction with the public administration, among others, it is necessary that citizens and businesses have quick and easy access to official information, even if it was originally created in natural language.
Resumo:
«Realismo e Lirismo em Terra Sonâmbula e Chuva Braba» é um trabalho de leitura que reflecte a nossa percepção em relação a dois mundos particulares que se constroem a partir das obras dos dois escritores africanos. Com efeito, optamos por uma estrutura pragmática do estudo, centrando a nossa atenção na leitura e interpretação dos romances, sem incluirmos um capítulo específico de referências teóricas. Tal estratégia permitiu cruzar o quadro conceptual com as informações textuais resultantes do processo de análise e interpretação do «corpus» do trabalho. As duas obras estabelecem pontos de intersecção no domínio linguístico e cultural como consequência de partilha de um passado histórico, político e social. A localização geográfica de Cabo Verde, a fome prolongada, por um lado, e a guerra catastrófica que abalou Moçambique entre 1976 e 1992, por outro, permitiram extrapolar recorrências temáticas inspiradas em impressões e experiências dos autores, relacionadas com práticas e vivências que, no trato literário, ganharam uma dimensão lírico-realista de grande valor hermenêutico. A insularidade e a continentalidade que opõem Cabo Verde e Moçambique, assim como a fome e a guerra que os caracterizam respectivamente, a procura de um espaço literário a partir das marcas de crioulidade e moçambicanidade compõem um conjunto de valores estéticos que configuram o imaginário cultural dos dois países africanos de língua portuguesa. Esta tese pesquisa as imagens e os aspectos fundamentais ínsitos nos dois romances, procurando mostrar até que ponto, a partir de temáticas de fome e guerra se pode construir narrativas lírico-realistas. O estudo permitiu observar que as imagens de sofrimento, desolação e desassossego constituem, geralmente, o paradigma estético da escrita lírica e realista de Mia Couto e Manuel Lopes.
Resumo:
The development of a new instrument for the measurement of convective and radiative is proposed, based on the transient operation of a transpiration radiometer. Current transpiration radiometers rely on steady state temperature measurements in a porous element crossed by a know gas mass flow. As a consequence of the porous sensing element’s intrinsically high thermal inertia, the instrument’s time constant is in the order of several seconds. The proposed instrument preserves established advantages of transpiration radiometers while incorporating additional features that broaden its applicability range. The most important developments are a significant reduction of the instrument’s response time and the possibility of separating and measuring the convective and radiative components of the heat flux. These objectives are achieved through the analysis of the instrument’s transient response, a pulsed gas flow being used to induce the transient behavior.
Resumo:
The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.
Resumo:
A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.
Resumo:
Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.
Resumo:
O presente trabalho de investigação centra-se no estudo das reclamações em matéria de ambiente submetidas às Câmaras dos municípios envolventes à Ria de Aveiro entre os anos de 2000 e 2007. Pretendeu compreender-se de que forma podem ser caracterizadas as reclamações, nomeadamente a análise temporal, os principais atores envolvidos na apresentação e na resolução das reclamações, os imputados pelos problemas ambientais levantados, as tipologias de problemas de ambiente associadas às reclamações, o padrão territorial que assumem e as resoluções aplicadas. Procurou ainda compreender-se até que ponto a existência de um ecossistema em comum aos municípios, a Ria de Aveiro, influencia os tipos de problemas ambientais que têm sido alvo de reclamações e quais são os fatores que determinam as semelhanças e as diferenças encontradas no estudo das reclamações por municípios. A metodologia do trabalho consistiu, sumariamente, na revisão da literatura da especialidade com o objetivo de identificar o que tem sido desenvolvido nesse ramo de investigação, na caracterização da área de estudo e no desenvolvimento de uma estrutura metodológica para a identificação e a análise das reclamações e para a ponderação dos resultados com as perceções dos líderes locais através da realização de entrevistas. O enquadramento teórico do estudo salientou os principais aspetos referidos no domínio dos protestos ambientais e das reclamações do público sobre o ambiente, bem como o quadro concetual relativo à governação ambiental local. Adicionalmente, descreveram-se um breve panorama dos protestos ambientais em Portugal, dos quadros legislativos Europeu e nacional assentes no direito de acesso à informação ambiental e no princípio da participação, bem como os procedimentos locais para a apresentação de reclamações ambientais. Apresentou-se também a caracterização dos municípios abrangidos, destacando-se os principais aspetos socioeconómicos, ambientais, de infraestruturação, os instrumentos de planeamento e de gestão do território e do ambiente e o enquadramento institucional relativo à gestão ambiental nos municípios, constituindo informações relevantes para o enquadramento da área de estudo e um suporte útil para a análise e a interpretação dos resultados. Os resultados obtidos permitiram evidenciar que, no geral, há um aumento do número de reclamações ao longo dos anos. Como principais atores envolvidos, foi possível destacar os munícipes como os mais participativos, tendo se revelado também como os principais responsáveis pelos problemas ambientais observados. Para além das Câmaras Municipais, as instituições policiais surgem como as principais entidades requeridas na resolução dos problemas. As reclamações refletem sobretudo problemas localizados e que interferem com o quotidiano dos cidadãos, tais como a limpeza de terrenos, os depósitos de lixo a céu aberto ou o saneamento básico. Os problemas enunciados tendem a concentrar-se nas áreas mais urbanizadas e com maior densidade populacional. A intensidade, a tipologia e a distribuição territorial das reclamações são também determinadas pelas fronteiras administrativas. Contrariamente ao esperado, a Ria não constitui um fator mobilizador de reclamações ambientais dirigidas às Câmaras Municipais. Os diferentes mecanismos de submissão de reclamações, as políticas e prioridades de gestão ambiental local, a par da perceção ambiental das populações, influenciam esses resultados. A análise da resolução das reclamações mostrou que, embora a maior parte tenha sido equacionada pelos governos locais, uma percentagem significativa permaneceu em aberto. Apesar de ter sido detetada uma relevante concordância entre os principais problemas de ambiente referidos nos planos municipais de ambiente ou das Agendas 21 Locais existentes, as reclamações informam sobre problemas que nem sempre estão considerados naqueles instrumentos e que requerem atenção por parte dos governos locais. Adicionalmente, a ponderação entre os resultados obtidos a partir do estudo as reclamações e as perceções dos líderes locais acerca das exposições do público mostra que, apesar de uma perceção consistente sobre os problemas ambientais dominantes, há ainda um caminho relevante a percorrer para consolidar os sistemas municipais de receção, tratamento e análise das reclamações. O estudo desenvolvido ressalta o potencial que as reclamações ambientais incorporam enquanto fontes de informação sobre a tipologia de problemas ambientais persistentes, a sua localização e os principais atores envolvidos. Essa informação é crucial no momento em que se desenvolvem ou reveem instrumentos locais de gestão e de planeamento ambiental. Ao destacar o potencial das reclamações em matéria de ambiente, o trabalho propõe um conjunto de recomendações que permitem às Câmaras Municipais enriquecerem o sistema de gestão da informação proporcionada pelas reclamações, a sua utilização, e, em consequência, melhorar as relações de confiança entre o público e a Autarquia e a própria a governação ambiental local.
Resumo:
Esta tese constitui uma reflexão sobre uma realidade, a praia do Francês, Alagoas, Brasil, que após mais de uma década é agora revisitada demonstrando os impactos socioambientais evidenciados ao longo de 30 anos, e por sua vez, fazem com que esta praia se transforme em laboratório cuja análise desenvolvida poderá servir como exemplo para ações futuras, e sustentáveis, em outras localidades. Sobretudo para áreas encontradas no mundo periférico, subdesenvolvido ou no Sul do Mundo, caracterizadas pela presença de populações tradicionais com seu rico e variado conhecimento, oralmente transmitido, adquirido através de suas observações práticas e cotidianas com seu meio circundante. Porém, este conhecimento encontra-se ameaçado pelo atual padrão de modernização, homogeneização do mundo, que em seu processo de desenvolvimento exclui crenças, valores e percepções de comunidades tradicionais inteiras, uma vez que se caracteriza por ocorrer com ausência de um olhar atento as especificidades locais, onde estas populações são as primeiras a sofrer com o atual modelo imposto que as ignora por completo e, ao mesmo tempo, por ocorrer com anuência do poder público local. Ao ignorá-las, tais ações minam suas formas de subsistência e via de consequência, às exclui das áreas onde sempre viveram e preservaram fazendo com que um importante e aprofundado conhecimento se perca, juntamente com a desintegração de seus laços de sociabilidade. A exemplo do Arquipélago dos Bijagós, Guiné-Bissau, costa Atlântica da África, lugar de existência de importante população tradicional que, a exemplo de outras localidades do mundo periférico, começa a experimentar transformações em seu patrimônio natural e cultural, decorrentes de ações desconectadas da realidade local. Este estudo, acena para uma importante reflexão sobre os impactos observados nesta realidade e os evidenciados na Praia do Francês. Portanto, procura-se aqui demonstrar a importância do conhecimento e das práticas existentes nas populações tradicionais (autóctones) para ações futuras, onde a inclusão deste saber seja prioridade para outras formas de pensar o desenvolvimento; e em seu processo de construção/planejamento este ocorra: com base no respeito à diversidade e com a participação dos mais diferentes e importantes atores. Enfim, um processo de desenvolvimento de base local, endógeno, sustentável.