32 resultados para Sombras de Reis Barbudos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O advento da Internet e da Web, na década de 1990, a par da introdução e desenvolvimento das novas TIC e, por consequência, a emergência da Sociedade da Informação e do Conhecimento, implicaram uma profunda alteração na forma de análise dos processos de ensino-aprendizagem, já não apenas segundo um prisma cognitivista, mas, agora, também social, isto é, segundo a(s) perspetiva(s) construtivista(s). Simultaneamente, torna-se imperativo que, para que possam transformar-se em futuros trabalhadores de sucesso, isto é, trabalhadores de conhecimento (Gates, 1999), os sujeitos aprendentes passem a ser efetivamente educados/preparados para a Sociedade da Informação e do Conhecimento e, tanto quanto possível, através da educação/formação ao longo da vida (Moore e Thompson, 1997; Chute, Thompson e Hancock, 1999). Todavia, de acordo com Jorge Reis Lima e Zélia Capitão, não se deve considerar esta mudança de paradigma como uma revolução mas, antes, uma evolução, ou, mais concretamente ainda, uma “conciliação de perspectivas cognitivas e sociais” (Reis Lima e Capitão, 2003:53). Assim, às instituições de ensino/formação cumprirá a tarefa de preparar os alunos para as novas competências da era digital, promovendo “a aprendizagem dos pilares do conhecimento que sustentarão a sua aprendizagem ao longo da vida” (Reis Lima e Capitão, Ibidem:54), isto é, “aprender a conhecer”, “aprender a fazer”, “aprender a viver em comum”, e “aprender a ser” (Equipa de Missão para a Sociedade da Informação, 1997:39; negritos e sublinhados no original). Para outros, a Internet, ao afirmar-se como uma tecnologia ubíqua, cada vez mais acessível, e de elevado potencial, “vem revolucionando a gestão da informação, o funcionamento do mercado de capitais, as cadeias e redes de valor, o comércio mundial, a relação entre governos e cidadãos, os modos de trabalhar e de comunicar, o entretenimento, o contacto intercultural, os estilos de vida, as noções de tempo e de distância. A grande interrogação actual reside em saber se a Internet poderá também provocar alterações fundamentais nos modos de aprender e de ensinar” (Carneiro, 2002:17-18; destaques no original). Trata-se, portanto, como argumenta Armando Rocha Trindade (2004:10), de reconhecer que “Os requisitos obrigatórios para a eficácia da aprendizagem a ser assim assegurada são: a prévia disponibilidade de materiais educativos ou de formação de alta qualidade pedagógica e didáctica, tanto quanto possível auto-suficientes em termos de conteúdos teóricos e aplicados, bem como a previsão de mecanismos capazes de assegurar, permanentemente, um mínimo de interactividade entre docentes e aprendentes, sempre que quaisquer dificuldades destes possam manifestarse”. Esta questão é também equacionada pelo Eng.º Arnaldo Santos, da PT Inovação, quando considera que, à semelhança da “maioria dos países, a formação a distância em ambientes Internet e Intranet, vulgo e-Learning, apresenta-se como uma alternativa pedagógica em franca expansão. Portugal está a despertar para esta nova realidade. São várias as instituições nacionais do sector público e privado que utilizam o e-Learning como ferramenta ou meio para formar as suas pessoas” (Santos, 2002:26). Fernando Ramos acrescenta também que os sistemas de educação/formação que contemplam componentes não presenciais, “isto é que potenciam a flexibilidade espacial, têm vindo a recorrer às mais variadas tecnologias de comunicação para permitir a interacção entre os intervenientes, nomeadamente entre os professores e os estudantes. Um pouco por todo o mundo, e também em Portugal, se têm implantado sistemas (habitualmente designados como sistemas de ensino a distância), recorrendo às mais diversas tecnologias de telecomunicações, de que os sistemas de educação através de televisão ou os sistemas de tutoria por rádio ou telefone são exemplos bem conhecidos” (Ramos, 2002b:138-139). Ora, o nosso estudo entronca precisamente na análise de um sistema ou plataforma tecnológica de gestão de aprendizagens (Learning Management System - LMS), o MOODLE, procurando-se, deste modo, dar resposta ao reconhecimento de que “urge investigar sobre a utilização real e pedagógica da plataforma” (Carvalho, 2007:27). Por outro lado, não descurando o rol de interrogações de outros investigadores em torno da utilização do MOODLE, nem enveredando pelas visões mais céticas que inclusive pressagiam a sua “morte” (Fernandes, 2008b:134), também nós nos questionamos se esta ferramenta nem sequer vai conseguir transpor “a fase de final de entusiasmo, e tornar-se uma ferramenta de minorias e de usos ocasionais?” (Fernandes, Op. cit.:133).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Formação Continuada de Professores de Ciências assume-se como uma via capaz de ajudar os alunos a desenvolver competências, como as de resolução de problemas. Nesta perspetiva, a Educação em Ciências deve visar o desenvolvimento de cidadãos cada vez mais participativos, responsáveis, capazes de tomar decisões conscientes, exigindo-se o desenvolvimento da literacia científica como uma meta a alcançar pelas escolas. Uma das estratégias considerada como potenciadora do desenvolvimento de tais competências é o trabalho experimental desenvolvido com os alunos, durante as aulas de Ciências de 2.º CEB. Neste contexto, desenvolveu-se um Programa de Formação Continuada de Professores em Ensino Experimental das Ciências no 2.º CEB, procurando-se avaliar o seu impacte nas conceções e práticas de índole experimental de quatro professores. Assim, formularam-se as seguintes questões de investigação: Qual o impacte do Programa de Formação para uma Educação em Ciências de base experimental: a) na (re)construção das conceções dos professores do 2.º CEB acerca do Trabalho Experimental?; b) e na promoção intencional, por parte dos professores envolvidos, de práticas didático-pedagógicas de base experimental no 2.º CEB? De forma a dar resposta às questões formuladas, desenvolveu-se uma investigação de natureza qualitativa, que pretendeu contribuir para a compreensão da relação entre a formação continuada de professores e as conceções e práticas de índole experimental desenvolvidas na disciplina de Ciências da Natureza, do 2.º CEB. O planeamento escolhido foi o de estudo de caso com quatro professoras participantes na formação continuada, tendo-se recorrido a várias técnicas e instrumentos de recolha e análise de dados. Para a caraterização das conceções das professoras sobre trabalho experimental foi utilizada a entrevista semi-estruturada, o Diário do Investigador e as transcrições das aulas destas professoras, bem como a reflexão oral nas sessões de acompanhamento com a Formadora. Este último instrumento também foi usado para a caracterização das práticas das professoras, assim como o Instrumento de Caraterização das Práticas Didático-Pedagógicas de índole experimental, desenvolvido para o presente estudo. Utilizou-se ainda um Questionário de Avaliação do Programa de Formação e os Portefólios das quatro professoras do estudo, para se obter a avaliação destas docentes acerca do Programa de Formação frequentado. Os resultados parecem indicar que, antes do Programa de Formação, apenas a Professora D apresentava conceções acerca de trabalho experimental, em sintonia com a perspetiva defendida na revisão de literatura. Após o Programa de Formação as quatro professoras revelaram conceções mais realistas acerca de trabalho experimental. Relativamente às práticas de índole experimental, antes do Programa de Formação, nenhuma das professoras colaboradoras do estudo implementava esta estratégia com os alunos. Após o Programa de Formação, todas as docentes passaram a contemplar nas suas práticas o trabalho experimental. De uma maneira geral, no que concerne à avaliação do Programa de Formação, as quatro docentes consideram que este teve impacte quer nas suas conceções quer nas suas práticas de índole experimental, destacando a importância do contributo das sessões de acompanhamento em sala de aula, com a Formadora, para a implementação efetiva do trabalho experimental nas suas práticas. A partir dos resultados obtidos, concluiu-se que o Programa de Formação contribuiu para que as quatro professoras colaboradoras do estudo (re) construíssem as suas conceções sobre trabalho experimental e para que o privilegiassem efetivamente nas suas aulas. O presente estudo visou contribuir para o desenvolvimento da formação de professores em ensino experimental das ciências, no que respeita à clarificação de conceções sobre o trabalho experimental e sua implementação efetiva com os alunos, dando-lhes autonomia e apelando ao desenvolvimento das suas capacidades de pensamento, relacionadas, por exemplo, com a identificação e controlo de variáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A integração de serviços na perspetiva dos cidadãos e empresas e a necessidade de garantir algumas características da Administração Pública como a versatilidade e a competitividade colocam alguns constrangimentos na conceção das arquiteturas de integração de serviços. Para que seja possível integrar serviços de forma a que se garanta a mutabilidade da Administração Pública, é necessário criar dinamicamente workflows. No entanto, a criação de dinâmica de workflows suscita algumas preocupações ao nível da segurança, nomeadamente em relação à privacidade dos resultados produzidos durante a execução de um workflow e em relação à aplicação de políticas de controlo de participação no workflow pelos diversos executores do mesmo. Neste trabalho apresentamos um conjunto de princípios e regras (arquitetura) que permitem a criação e execução de workflows dinâmicos resolvendo, através de um modelo de segurança, as questões referidas. A arquitetura utiliza a composição de serviços para dessa forma construir serviços complexos a que poderá estar inerente um workflow dinâmico. A arquitetura usa ainda um paradigma de troca de mensagens-padrão entre os prestadores de serviços envolvidos num workflow dinâmico. O modelo de segurança proposto está intimamente ligado ao conjunto de mensagens definido na arquitetura. No âmbito do trabalho foram identificadas e analisadas várias arquiteturas e/ou plataformas de integração de serviços. A análise realizada teve como objetivo identificar as arquiteturas que permitem a criação de workflows dinâmicos e, destas, aquelas que utilizam mecanismos de privacidade para os resultados e de controlo de participação dos executores desses workflows. A arquitetura de integração que apresentamos é versátil, escalável, permite a prestação concorrente de serviços entre prestadores de serviços e permite criar workflows dinâmicos. A arquitetura permite que as entidades executoras do workflow decidam sobre a sua participação, decidam sobre a participação de terceiros (a quem delegam serviços) e decidam a quem entregam os resultados. Os participantes são acreditados por entidades certificadores reconhecidas pelos demais participantes. As credenciais fornecidas pelas entidades certificadoras são o ponto de partida para a aplicação de políticas de segurança no âmbito da arquitetura. Para validar a arquitetura proposta foram identificados vários casos de uso que exemplificam a necessidade de construção de workflows dinâmicos para atender a serviços complexos (não prestados na íntegra por uma única entidade). Estes casos de uso foram implementados num protótipo da arquitetura desenvolvido para o efeito. Essa experimentação permitiu concluir que a arquitetura está adequada para prestar esses serviços usando workflows dinâmicos e que na execução desses workflows os executores dispõem dos mecanismos de segurança adequados para controlar a sua participação, a participação de terceiros e a privacidade dos resultados produzidos no âmbito dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A perfuração é uma das operações envolvidas no desmonte de rocha com explosivos. A forma como esta operação é executada é determinante para o sucesso do desmonte. Quando é realizada correctamente o desmonte produz superfícies limpas com o mínimo de sobrescavação e perturbação. A selecção das ferramentas de perfuração é um dos factores preponderantes para os custos do desmonte de maciços rochosos. O objectivo deste trabalho é demonstrar a interdependência entre os parâmetros petrofísicos, geotécnicos e geomecânicos do maciço rochoso e as tecnologias de perfuração de forma a optimizar tanto técnica como economicamente. A forma como a perfuração é executada é determinante para a boa fragmentação do maciço rochoso. Este estudo irá centrar-se na perfurabilidade do maciço, linearidade dos furos, rendimento e desgaste das ferramentas de perfuração e desenvolvimento de metodologias do ciclo de perfuração. Neste trabalho, discute-se a importância de uma abordagem integrativa para fins de geoengenhara mineira em que foi aplicada a técnica de amostragem linear em superfícies expostas do maciço num ambiente de uma exploração granítica. As áreas seleccionadas para este estudo — Pedreira de Serdedelo (Ribeira, Ponte de Lima) e pedreira do Fojo (Ferreira, Paredes de Coura), NW de Portugal — estão situadas nas proximidades de falhas geológicas regionais. Em todo os casos de estudo foram desenvolvidos numa plataforma SIG usando as seguintes ferramentas: cartografia geo-aplicada, técnicas de geologia estrutural, da geotecnia e da geomecânica mineiras e avaliação de geotecnologias. Esta abordagem leva-nos a compreender a relevância da heterogeneidade do maciço rochoso para o dimensionamento da exploração a diferentes escalas. O controlo geomecânico do desmonte do maciço rochoso através de uma perfuração alinhada é salientado com o intuito de uma abordagem de geoengenharia integrada nos maciços rochosos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As organizações estão se tornando cada vez mais competitivas e buscando, constantemente, formas de aumentar o seu desempenho através da compreensão dos fatores que o antecedem. A nossa investigação incorpora dois estudos, ambos incidentes sobre as lojas de uma grande cadeia de varejo brasileira. O primeiro estudo, envolvendo 68 lojas, investiga como a liderança autêntica explica o desempenho das lojas através do efeito mediador da virtuosidade e da potência das equipes (uma espécie de sentido de eficácia coletiva). O segundo estudo, abrangendo 46 lojas, testa como a potência das equipes explica o respetivo desempenho através do efeito mediador da criatividade. Os principais resultados são: (a) a relação entre a liderança autêntica e o desempenho das lojas é totalmente mediada pela virtuosidade e pela potência das equipes; (b) a criatividade medeia a relação entre a potência das equipes e o desempenho das lojas; (c) a criatividade não explica diretamente o desempenho, mas parece influenciá-lo através do efeito mediador da potência. Os cuidados metodológicos destinados a diminuir os riscos de variância do método comum aumentam a validade dos estudos. Ao focar variáveis relacionadas com a virtuosidade, a liderança autêntica, e as forças das equipes, e ao incluir dados de desempenho objetivo, a nossa investigação é um contributo relevante para o movimento dos “Estudos Organizacionais Positivos”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All-optical solutions for switching and routing packet-based traffic are crucial for realizing a truly transparent network. To meet the increasing requirements for higher bandwidth, such optical packet switched networks may require the implementation of digital functions in the physical layer. This scenario stimulated us to research and develop innovative high-speed all-optical storage memories, focusing mainly on bistables whose state switching is triggered by a pulsed clock signal. In clocked devices, a synchronization signal is responsible for controlling the enabling of the bistable. This thesis also presents novel solutions to implement optical logic gates, which are basic building blocks of any processing system and a fundamental element for the development of complex processing functionalities. Most of the proposed schemes developed in this work are based on SOA-MZI structures due to their inherent characteristics such as, high extinction ratio, high operation speed, high integration capability and compactness. We addressed the experimental implementation of an all-optical packet routing scheme, with contention resolution capability, using interconnected SOAMZIs. The impact on the system performance of the reminiscent power of the blocked packets, from the non ideal switching performed by the SOA-MZIs, was also assessed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Having as a starting point the characterization of probabilistic metric spaces as enriched categories over the quantale , conditions that allow the generalization of results relating Cauchy sequences, convergence of sequences, adjunctions of V-distributors and its representability are established. Equivalence between L-completeness and L-injectivity is also established. L-completeness is characterized via the Yoneda embedding, and injectivity is related with exponentiability. Another kind of completeness is considered and the formal ball model is analyzed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the last 36 years, the relationship with the Portuguese state-owned enterprises registered several dynamics: nationalizations, privatizations and corporatization of public services. However, until now the State Business Sector from a national accounts perspective was never analyzed. Based on data collected and compiled for the first time at Statistics Portugal, this PhD thesis aims to test, analyzing in eight dimensions, whether the weight of the State Business Sector increased and if it contributed positively to the Portuguese economy, from 2006 to 2010. In addition to this analysis, an overview of the economic theory of state intervention in the economy, the paradigm changes of public policy in the international context, the evolution of the Portuguese State Business Sector since 1974, accompanied with a business and national accounting perspective between 2006 and 2010, are also presented. The results allow us to conclude that, in general, the weight of the State Business Sector in the Portuguese economy increased and had a tendency of a positive contribution to its economic growth. The State Business Sector also contributed positively to the nominal labour productivity (although with a decreasing trend of contribution to growth over the period under review) and the profitability of the non-financial corporations sector (although impairing the overall ratio of this sector). Nonetheless, the State Business Sector contributed negatively to the fairness in compensation of employees (although with an improvement trend) and to the competitiveness of labour cost, investment and sectorial sustainability of the Portuguese economy (reinforced by a falling trend). The results also suggest that the State Business Sector had an economic behaviour closer to a welfare maximizing model than to a profit maximizing model. This distinct performance with respect to the institutional sector in which is included, highlights the need to study and reassess the relationship of the state with public corporations, in light of agency theory using micro-data. Lastly, contributions to improve the economic performance of the State Business Sector and future prospects of evolution are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como objetivos identificar e caraterizar os modos de Comunicação Mediada por Computador (CMC) utilizados nas Comunidades Online (CO), relevantes para a prática de criação visual, contextualizando-os na produção de Type Design (TD). E concetualizar um modelo de CO de prática, desenvolvida segundo uma metodologia participativa, avaliando as estratégias de dinamização e viabilização no contexto nacional. Atualmente, com a disseminação das tecnologias de informação e comunicação a prática de TD, uma atividade isolada e individual, está sujeita a um paradigma de mudança—tornar-se uma atividade de partilha cada vez maior. A investigação dividiu-se em três fases. Na primeira fase procura perceber os modos relevantes de CMC para a prática de TD. Para isso, observa-se as motivações e comportamentos dos utilizadores nestas plataformas, apoiado pela recolha de dados sobre o uso destas plataformas no contexto académico. Juntamente com o desenvolvimento e avaliação de uma experiência preliminar numa plataforma online existente. Na segunda fase, apresenta-se o modelo concetual de uma CO para a produção de TD apoiado na identificação e caraterização das Virtual Community of Practice de TD existentes. E o respetivo desenvolvimento e implementação de um protótipo funcional. Na terceira fase o protótipo foi avaliado recorrendo à participação dos utilizadores—uma amostra de Type Designers profissionais portugueses—no desenvolvimento das estratégias comunitárias segundo uma abordagem participativa de Community-Centered Development. A utilização de um Focus Group de dimensões reduzidas, e as limitações temporais da investigação prática não permitem generalizar os resultados encontrados. No entanto, os resultados revelam que quanto mais específica for a atividade da prática partilhada na CO, mais especializados e restritos devem ser os modos de CMC implementados para a comunicação e interação dos membros online. A integração dos modos de CMC sobre a comunicação assíncrona através de artefactos visuais tem um potencial de comunicação mais eficaz e satisfatório para estes utilizadores. E as barreiras à participação, apesar de poderem ser minimizadas através da inovação nos modos implementados, são um desafio de sociabilização que devem ser geridos, equilibrando a comunicação explícita, os usos, perceções e expectativas dos diferentes papéis dos membros da comunidade.