997 resultados para complex offer auction
Resumo:
The evolution of hybrid polyploid vertebrates, their viability and their perpetuation over evolutionary time have always been questions of great interest. However, little is known about the impact of hybridization and polyploidization on the regulatory networks that guarantee the appropriate quantitative and qualitative gene expression programme. The Squalius alburnoides complex of hybrid fish is an attractive system to address these questions, as it includes a wide variety of diploid and polyploid forms, and intricate systems of genetic exchange. Through the study of genome-specific allele expression of seven housekeeping and tissue-specific genes, we found that a gene copy silencing mechanism of dosage compensation exists throughout the distribution range of the complex. Here we show that the allele-specific patterns of silencing vary within the complex, according to the geographical origin and the type of genome involved in the hybridization process. In southern populations, triploids of S. alburnoides show an overall tendency for silencing the allele from the minority genome, while northern population polyploids exhibit preferential biallelic gene expression patterns, irrespective of genomic composition. The present findings further suggest that gene copy silencing and variable expression of specific allele combinations may be important processes in vertebrate polyploid evolution.
Resumo:
Este artigo é uma introdução à teoria do paradigma desconstrutivo de aprendizagem cooperativa. Centenas de estudos provam com evidências o facto de que as estruturas e os processos de aprendizagem cooperativa aumentam o desempenho académico, reforçam as competências de aprendizagem ao longo da vida e desenvolvem competências sociais, pessoais de cada aluno de uma forma mais eficaz e usta, comparativamente às estruturas tradicionais de aprendizagem nas escolas. Enfrentando os desafios dos nossos sistemas educativos, seria interessante elaborar o quadro teórico do discurso da aprendizagem cooperativa, dos últimos 40 anos, a partir de um aspeto prático dentro do contexto teórico e metodológico. Nas últimas décadas, o discurso cooperativo elaborou os elementos práticos e teóricos de estruturas e processos de aprendizagem cooperativa. Gostaríamos de fazer um resumo desses elementos com o objetivo de compreender que tipo de mudanças estruturais podem fazer diferenças reais na prática de ensino e aprendizagem. Os princípios básicos de estruturas cooperativas, os papéis de cooperação e as atitudes cooperativas são os principais elementos que podemos brevemente descrever aqui, de modo a criar um quadro para a compreensão teórica e prática de como podemos sugerir os elementos de aprendizagem cooperativa na nossa prática em sala de aula. Na minha perspetiva, esta complexa teoria da aprendizagem cooperativa pode ser entendida como um paradigma desconstrutivo que fornece algumas respostas pragmáticas para as questões da nossa prática educativa quotidiana, a partir do nível da sala de aula para o nível de sistema educativo, com foco na destruição de estruturas hierárquicas e antidemocráticas de aprendizagem e, criando, ao mesmo tempo, as estruturas cooperativas.
Resumo:
IV Congress of Marine Sciences. Las Palmas de Gran Canaria, June 11th to 13th 2014.
Resumo:
This paper aims to present a contrastive approach between three different ways of building concepts after proving the similar syntactic possibilities that coexist in terms. However, from the semantic point of view we can see that each language family has a different distribution in meaning. But the most important point we try to show is that the differences found in the psychological process when communicating concepts should guide the translator and the terminologist in the target text production and the terminology planning process. Differences between languages in the information transmission process are due to the different roles the different types of knowledge play. We distinguish here the analytic-descriptive knowledge and the analogical knowledge among others. We also state that none of them is the best when determining the correctness of a term, but there has to be adequacy criteria in the selection process. This concept building or term building success is important when looking at the linguistic map of the information society.
Resumo:
3rd SMTDA Conference Proceedings, 11-14 June 2014, Lisbon Portugal.
Resumo:
The handling of waste and compost that occurs frequently in composting plants (compost turning, shredding, and screening) has been shown to be responsible for the release of dust and air borne microorganisms and their compounds in the air. Thermophilic fungi, such as A. fumigatus, have been reported and this kind of contamination in composting facilities has been associated with increased respiratory symptoms among compost workers. This study intended to characterize fungal contamination in a totally indoor composting plant located in Portugal. Besides conventional methods, molecular biology was also applied to overcome eventual limitations.
Resumo:
Hoje em dia, a prevenção dos resíduos de metais é uma questão muito importante para um grande número de empresas, pois necessitam optimizar o seu sistema de tratamento de águas residuais a fim de alcançarem os limites legais dos teores em iões metálicos e poderem efectuar a descarga das águas residuais no domínio hídrico público. Devido a esta problemática foram efectuados estudos inovadores relacionados com a remoção de iões metálicos de águas residuais, verificando-se que as tecnologias de membrana oferecem uma série de vantagens para o efeito. Uma dessas tecnologias, referida como Membrana Líquida de Suporte (SLM), é baseada num mecanismo de extracção. A membrana hidrofóbica, impregnada com uma solução extractora, funciona como barreira entre a água residual e uma solução, geralmente ácida. A diferença de pH entre a água residual e a solução actua como força motriz para o transporte de iões metálicos da água residual para a referida solução. Poderá ocorrer um problema de falta de estabilidade, resultante da possível fuga da solução extractora para fora dos poros das membranas. Estudos anteriores mostraram que os ácidos alquilfosfóricos ou ácidos fosfónicos, como os reagentes D2EHPA e CYANEX e hidroxioximas como o LIX 860-I podem ser muito úteis para a extração de iões metálicos como ferro, cobre, níquel, zinco e outros. A clássica extracção líquido-líquido também tem mostrado que a mistura de diferentes extractores pode ter um efeito sinergético. No entanto, não é claro que haja um efeito óptimo da razão de extractor ou que tipo de complexo é formado durante o processo de extracção. O objectivo deste projecto é investigar este comportamento sinergético e as complexas formações por meio de um método espectrofotométrico, o “Job’s method” e “Mole-ratio method”. Estes métodos são utilizados para estimar a estequiometria dos vários complexos entre dois solutos, a partir da variação de absorvância dos complexos quando comparado com a absorvância do soluto. Com este projecto, o Job’s method e mole-ratio method serão aplicados a um sistema de três componentes, para conseguir mais informações sobre a complexação de níquel (II) e a fim de determinar a razão extractor: metal dos complexos formados durante a aplicação de mistura de extractores D2EHPA e LIX 860-I. Segundo Job’s method a elavada absorvância situa-se na região de 0,015-0,040 M de LIX 860-I e uma baixa concentração de D2EHPA. Quando as diferentes experiências são encontradas num conjunto experimental foram avaliadas de acordo com o método de trabalho, o valor máximo do gráfico foi encontrado para uma baixa fração molar do ião metálico e uma maior concentração de D2EHPA. Esta mudança foi encontrado de 0,50 até 0,30, que poderia apontar para a direção da formação de diferentes complexos. Para o Mole-Ratio method, a estequiometria dos complexos metal pode ser determinada a partir do ponto de intersecção das linhas tangente do gráfico da absorbância versus a concentração do ligante. Em todos os casos, o máximo foi obtido em torno de uma concentração total de 0,010 M. Quando D2EHPA foi aplicado sozinho, absorvâncias muito baixos foram obtidas.
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.
Resumo:
Finding the structure of a confined liquid crystal is a difficult task since both the density and order parameter profiles are nonuniform. Starting from a microscopic model and density-functional theory, one has to either (i) solve a nonlinear, integral Euler-Lagrange equation, or (ii) perform a direct multidimensional free energy minimization. The traditional implementations of both approaches are computationally expensive and plagued with convergence problems. Here, as an alternative, we introduce an unsupervised variant of the multilayer perceptron (MLP) artificial neural network for minimizing the free energy of a fluid of hard nonspherical particles confined between planar substrates of variable penetrability. We then test our algorithm by comparing its results for the structure (density-orientation profiles) and equilibrium free energy with those obtained by standard iterative solution of the Euler-Lagrange equations and with Monte Carlo simulation results. Very good agreement is found and the MLP method proves competitively fast, flexible, and refinable. Furthermore, it can be readily generalized to the richer experimental patterned-substrate geometries that are now experimentally realizable but very problematic to conventional theoretical treatments.
Resumo:
A Teia Mundial (Web) foi prevista como uma rede de documentos de hipertexto interligados de forma a criar uma espaço de informação onde humanos e máquinas poderiam comunicar. No entanto, a informação contida na Web tradicional foi/é armazenada de forma não estruturada o que leva a que apenas os humanos a possam consumir convenientemente. Consequentemente, a procura de informações na Web sintáctica é uma tarefa principalmente executada pelos humanos e nesse sentido nem sempre é fácil de concretizar. Neste contexto, tornou-se essencial a evolução para uma Web mais estruturada e mais significativa onde é dado significado bem definido à informação de forma a permitir a cooperação entre humanos e máquinas. Esta Web é usualmente referida como Web Semântica. Além disso, a Web Semântica é totalmente alcançável apenas se os dados de diferentes fontes forem ligados criando assim um repositório de Dados Abertos Ligados (LOD). Com o aparecimento de uma nova Web de Dados (Abertos) Ligados (i.e. a Web Semântica), novas oportunidades e desafios surgiram. Pergunta Resposta (QA) sobre informação semântica é actualmente uma área de investigação activa que tenta tirar vantagens do uso das tecnologias ligadas à Web Semântica para melhorar a tarefa de responder a questões. O principal objectivo do projecto World Search passa por explorar a Web Semântica para criar mecanismos que suportem os utilizadores de domínios de aplicação específicos a responder a questões complexas com base em dados oriundos de diferentes repositórios. No entanto, a avaliação feita ao estado da arte permite concluir que as aplicações existentes não suportam os utilizadores na resposta a questões complexas. Nesse sentido, o trabalho desenvolvido neste documento foca-se em estudar/desenvolver metodologias/processos que permitam ajudar os utilizadores a encontrar respostas exactas/corretas para questões complexas que não podem ser respondidas fazendo uso dos sistemas tradicionais. Tal inclui: (i) Ultrapassar a dificuldade dos utilizadores visionarem o esquema subjacente aos repositórios de conhecimento; (ii) Fazer a ponte entre a linguagem natural expressa pelos utilizadores e a linguagem (formal) entendível pelos repositórios; (iii) Processar e retornar informações relevantes que respondem apropriadamente às questões dos utilizadores. Para esse efeito, são identificadas um conjunto de funcionalidades que são consideradas necessárias para suportar o utilizador na resposta a questões complexas. É também fornecida uma descrição formal dessas funcionalidades. A proposta é materializada num protótipo que implementa as funcionalidades previamente descritas. As experiências realizadas com o protótipo desenvolvido demonstram que os utilizadores efectivamente beneficiam das funcionalidades apresentadas: ▪ Pois estas permitem que os utilizadores naveguem eficientemente sobre os repositórios de informação; ▪ O fosso entre as conceptualizações dos diferentes intervenientes é minimizado; ▪ Os utilizadores conseguem responder a questões complexas que não conseguiam responder com os sistemas tradicionais. Em suma, este documento apresenta uma proposta que comprovadamente permite, de forma orientada pelo utilizador, responder a questões complexas em repositórios semiestruturados.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Theory building is one of the most crucial challenges faced by basic, clinical and population research, which form the scientific foundations of health practices in contemporary societies. The objective of the study is to propose a Unified Theory of Health-Disease as a conceptual tool for modeling health-disease-care in the light of complexity approaches. With this aim, the epistemological basis of theoretical work in the health field and concepts related to complexity theory as concerned to health problems are discussed. Secondly, the concepts of model-object, multi-planes of occurrence, modes of health and disease-illness-sickness complex are introduced and integrated into a unified theoretical framework. Finally, in the light of recent epistemological developments, the concept of Health-Disease-Care Integrals is updated as a complex reference object fit for modeling health-related processes and phenomena.
Resumo:
This paper presents a distributed predictive control methodology for indoor thermal comfort that optimizes the consumption of a limited shared energy resource using an integrated demand-side management approach that involves a power price auction and an appliance loads allocation scheme. The control objective for each subsystem (house or building) aims to minimize the energy cost while maintaining the indoor temperature inside comfort limits. In a distributed coordinated multi-agent ecosystem, each house or building control agent achieves its objectives while sharing, among them, the available energy through the introduction of particular coupling constraints in their underlying optimization problem. Coordination is maintained by a daily green energy auction bring in a demand-side management approach. Also the implemented distributed MPC algorithm is described and validated with simulation studies.
Resumo:
It has been shown that in reality at least two general scenarios of data structuring are possible: (a) a self-similar (SS) scenario when the measured data form an SS structure and (b) a quasi-periodic (QP) scenario when the repeated (strongly correlated) data form random sequences that are almost periodic with respect to each other. In the second case it becomes possible to describe their behavior and express a part of their randomness quantitatively in terms of the deterministic amplitude–frequency response belonging to the generalized Prony spectrum. This possibility allows us to re-examine the conventional concept of measurements and opens a new way for the description of a wide set of different data. In particular, it concerns different complex systems when the ‘best-fit’ model pretending to be the description of the data measured is absent but the barest necessity of description of these data in terms of the reduced number of quantitative parameters exists. The possibilities of the proposed approach and detection algorithm of the QP processes were demonstrated on actual data: spectroscopic data recorded for pure water and acoustic data for a test hole. The suggested methodology allows revising the accepted classification of different incommensurable and self-affine spatial structures and finding accurate interpretation of the generalized Prony spectroscopy that includes the Fourier spectroscopy as a partial case.
Resumo:
This paper presents a novel method for the analysis of nonlinear financial and economic systems. The modeling approach integrates the classical concepts of state space representation and time series regression. The analytical and numerical scheme leads to a parameter space representation that constitutes a valid alternative to represent the dynamical behavior. The results reveal that business cycles can be clearly revealed, while the noise effects common in financial indices can elegantly be filtered out of the results.