924 resultados para Linear chains, critical exponents, complex networks, vehicular traffic
Resumo:
A conserved helical peptide vaccine candidate from the M protein of group A streptococci, p145, has been described. Minimal epitopes within p145 have been defined and an epitope recognized by protective antibodies, but not by autoreactive T cells, has been identified. When administered to mice, p145 has low immunogenicity. Many boosts of peptide are required to achieve a high antibody titre (> 12 800). To attempt to overcome this low immunogenicity, lipid-core peptide technology was employed. Lipid-core peptides (LCP) consist of an oligomeric polylysine core, with multiple copies of the peptide of choice, conjugated to a series of lipoamino acids, which acts as an anchor for the antigen. Seven different LCP constructs based on the p145 peptide sequence were synthesized (LCP1-->LCP7) and the immunogenicity of the compounds examined. The most immunogenic constructs contained the longest alkyl side-chains. The number of lipoamino acids in the constructs affected the immunogenicity and spacing between the alkyl side-chains increased immunogenicity. An increase in immunogenicity (enzyme-linked immunosorbent assay (ELISA) titres) of up to 100-fold was demonstrated using this technology and some constructs without adjuvant were more immunogenic than p145 administered with complete Freund's adjuvant (CFA). The fine specificity of the induced antibody response differed for the different constructs but one construct, LCP4, induced antibodies of identical fine specificity to those found in endemic human serum. Opsonic activity of LCP4 antisera was more than double that of p145 antisera. These data show the potential for LCP technology to both enhance immunogenicity of complex peptides and to focus the immune response towards or away from critical epitopes.
Resumo:
A decision theory framework can be a powerful technique to derive optimal management decisions for endangered species. We built a spatially realistic stochastic metapopulation model for the Mount Lofty Ranges Southern Emu-wren (Stipiturus malachurus intermedius), a critically endangered Australian bird. Using diserete-time Markov,chains to describe the dynamics of a metapopulation and stochastic dynamic programming (SDP) to find optimal solutions, we evaluated the following different management decisions: enlarging existing patches, linking patches via corridors, and creating a new patch. This is the first application of SDP to optimal landscape reconstruction and one of the few times that landscape reconstruction dynamics have been integrated with population dynamics. SDP is a powerful tool that has advantages over standard Monte Carlo simulation methods because it can give the exact optimal strategy for every landscape configuration (combination of patch areas and presence of corridors) and pattern of metapopulation occupancy, as well as a trajectory of strategies. It is useful when a sequence of management actions can be performed over a given time horizon, as is the case for many endangered species recovery programs, where only fixed amounts of resources are available in each time step. However, it is generally limited by computational constraints to rather small networks of patches. The model shows that optimal metapopulation, management decisions depend greatly on the current state of the metapopulation,. and there is no strategy that is universally the best. The extinction probability over 30 yr for the optimal state-dependent management actions is 50-80% better than no management, whereas the best fixed state-independent sets of strategies are only 30% better than no management. This highlights the advantages of using a decision theory tool to investigate conservation strategies for metapopulations. It is clear from these results that the sequence of management actions is critical, and this can only be effectively derived from stochastic dynamic programming. The model illustrates the underlying difficulty in determining simple rules of thumb for the sequence of management actions for a metapopulation. This use of a decision theory framework extends the capacity of population viability analysis (PVA) to manage threatened species.
Resumo:
Activation of macrophages with lipopolysaccharide (LPS) induces the rapid synthesis and secretion of proinflammatory cytokines, such as tumor necrosis factor (TNFalpha), for priming the immune response [1, 2]. TNFalpha plays a key role in inflammatory disease [3]; yet, little is known of the intracellular trafficking events leading to its secretion. In order to identify molecules involved in this secretory pathway, we asked whether any of the known trafficking proteins are regulated by LPS. We found that the levels of SNARE proteins were rapidly and significantly up- or downregulated during macrophage activation. A subset of t-SNAREs (Syntaxin 4/SNAP23/Munc18c) known to control regulated exocytosis in other cell types [4, 5] was substantially increased by LPS in a temporal pattern coinciding with peak TNFalpha secretion. Syntaxin 4 formed a complex with Munc18c at the cell surface of macrophages. Functional studies involving the introduction of Syntaxin 4 cDNA or peptides into macrophages implicate this t-SNARE in a rate-limiting step of TNFalpha secretion and in membrane ruffling during macrophage activation. We conclude that in macrophages, SNAREs are regulated in order to accommodate the rapid onset of cytokine secretion and for membrane traffic associated with the phenotypic changes of immune activation. This represents a novel regulatory role for SNAREs in regulated secretion and in macrophage-mediated host defense.
Resumo:
Criada em agosto de 2008, a revista em quadrinhos “Turma da Mônica Jovem”, ou TMJ, como é conhecida por seus leitores, tem estilo mangá e traz os mesmos personagens moradores do bairro Limoeiro, agora, adolescentes e com características bem distintas da turma tradicional. A presente pesquisa procurou desenvolver uma análise crítica de TMJ, dentro dos pressupostos teóricos e metodológicos da semiótica discursiva, buscando responder as questões: como a problemática do consumo é apropriada pela revista? Que estratégias enunciativas são utilizadas para inscrever o público infantojuvenil em seu discurso? A revisão de literatura faz uma triangulação dos conceitos norteadores do estudo: Quadrinhos, Consumo Infantil e Semiótica, trazendo, no centro do triângulo, a Educação, área de conhecimento principal da pesquisa e conectora dos três outros campos. Realizamos uma análise semiótica de um corpus composto por sete edições de TMJ que trouxeram como tema principal problemática relacionada à sociedade de consumo contemporânea, a partir de um universo de revistas publicadas, no período de 2012 a 2014. Dentre as categorias de consumo pré-estabelecidas ou que emergiram do discurso de TMJ, contemplamos: o consumo consciente, o consumo conspícuo, o consumo moralista e o consumo de cultura midiática. Por meio da técnica do grupo focal, desenvolvemos uma conversa com os leitores de TMJ, buscando entender como se dá a apreensão da problemática do consumo por eles, bem como que impactos essa apreensão tem para uma maior atratividade da publicação, dentre outros objetivos específicos investigados, nesse encontro. Durante a realização de três grupos, intitulados Leitores Iniciantes, Leitores Assíduos e Leitores Esporádicos, os agrupamos em duas categorias relacionadas ao campo do consumo e, também, da semiótica. O grupo do Pertencimento conhece e interage com a revista, em profundidade, promovendo um ajuste de sensibilidade entre o enunciatário (leitor) e o enunciador (revista), com características do “parecer ser e ser”. O grupo da Emulação deseja pertencer ao grupo dos leitores assíduos, mas como não possui as características para tal, as busca por meio da imitação, dentro de um regime do “parecer ser, mas não ser”. Os resultados da pesquisa apontam que o consumo está muito presente em TMJ, tendo aparecido como temática principal, em mais da metade das revistas analisadas. Ainda, ele pode ser considerado como tema central das histórias da turma, principalmente, no momento em que a revista utiliza sua plasticidade, na figurativização dos personagens e ambientes das histórias, para difundir um mundo de consumo a essas crianças e adolescentes leitores. Embora as revistas que se enquadraram nas categorias de consumo consciente e consumo moralista busquem passar alguns conselhos e ensinamentos para seus leitores, são as categorias de consumo conspícuo e consumo de cultura midiática, tratadas de forma pouco crítica e, por vezes, irresponsável que possuem maior grau de apreensão por parte do leitor, conferindo atratividade à revista. Entre outras conclusões, podemos afirmar que o discurso de TMJ se utiliza de narrativas simples (lineares e pouco complexas), bem como de uma figuratividade e de temáticas repetitivas, oferecendo a seus leitores pouco debate e reflexão, sendo um discurso da reprodução, sem aprofundamento, do dia-a-dia dessas crianças e adolescentes que, apesar de falar delas e para elas, não inclui muitas temáticas relevantes ao seu universo.
Resumo:
O objetivo principal deste trabalho foi o estudo do transporte atmosférico de PM10 e SO2 em regiões costeiras urbanas usando modelos WRF/CMAQ. Duas regiões foram contempladas neste estudo. Uma é a Região da Grande Vitória (RGV), no estado do Espírito Santo, Brasil; a outra é a Região da Grande Dunkerque (RGD), no Departamento Nord Pas-de-Calais, França. A RGV é cercada por uma cadeia de montanhas paralela à costa, resultando num topografia complexa e acidentada. Já a RGD possui uma topografia muito mais suave. As entradas de dados para os modelos WRF/CMAQ englobaram o inventário de emissões de poluentes atmosféricos do IEMA-ES para a RGV, e o inventário de emissões no nível do solo de Nord Pas-de-Calais denominado ―Cadastre_totaux_3km_A2008 _M2010_V2_SNAPN2‖ para a RGD. Ambos os inventários apresentaram restrições, todavia. O inventário da RGV apresentou valores de ressuspensão em vias de tráfego elevados, em comparação com diversos estudos, e teve esses dados modificados. Os dados no nível do solo e a grande área de das células da grade (9 km2) do inventário da RGD não permitiram resultados satisfatórios de modelagem. A validação dos modelos foi realizada por comparação com resultados obtidos em duas campanhas experimentais: uma na cidade de Dunkerque, no norte da França, em setembro de 2009; a outra na cidade de Vitória, no sudeste do Brasil, em julho de 2012. Esses dados foram obtidos pelo uso de sistemas de Light Detection and Ranging (LIDAR) e Sonic Detection and Ranging (SODAR), bem como de Estações Meteorológicas de Superfície (EMS) e de monitoramento atmosférico. Os resultados deste trabalho mostraram que: a) existe uma necessidade de melhorias contínuas nos inventários regionais de emissões, adaptando-os para condições locais específicas e focando na obtenção de parâmetros necessários para modelagem fotoquímica; b) os valores de módulo e direção das velocidades obtidas na modelagem meteorológica influenciam fortemente os resultados da modelagem de concentração de poluentes; c) a qualidade do ar tanto na RGV quanto na RGD merece atenção, sobretudo no que diz respeito às concentrações de MP10. De acordo com os dados das estações de monitoramento, a situação parece mais crítica na RGD; d) a modelagem da RGV apresentou resultados mais satisfatórios do que a da RGD, de acordo com os resultados das validações; e) a entrada da brisa do mar provocou alterações significativas na concentração dos poluentes, o que pôde ser observado na análise da dinâmica da dispersão de MP10 e SO2. Esse fenômeno foi mais marcante na RGV, onde a entrada da brisa marítima provocou um movimento oscilatório na pluma de poluição, levando-a para os bairros mais densamente povoados do conglomerado urbano. Na RGD, a entrada da brisa não foi cotidiana e, no dia em que ela aconteceu, houve uma alteração de quase 180º na direção do movimento da pluma de poluição. Além do aumento da turbulência vertical, o qual já foi estudado por diversos autores, este estudo focou também na influência brisa do mar na dinâmica da pluma de dispersão de poluentes atmosféricos em regiões costeiras.
Resumo:
The study of public administration has been characterized as a strong international focus, as both governments and scholars have sought to learn from the experience of other societies. While in a perfect world, one would expect a sort of pragmatic universalism, instead, many scholars tend to bring lessons from one country, or from a single cultural reality. This modest contribution lies in showing a series of national experiences rarely brought to the discourse about public administration in Brazil: Canada, Australia, India and the Philippines. Special emphasis will be given to the following: the origins and the development of public administration; the influence of ideology; and the complex tension between global theory and local practices.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
The present work involves the use of p-tert-butylcalix[4,6,8]arene carboxylic acid derivatives ((t)Butyl[4,6,8]CH2COOH) for selective extraction of hemoglobin. All three calixarenes extracted hemoglobin into the organic phase, exhibiting extraction parameters higher than 0.90. Evaluation of the solvent accessible positively charged amino acid side chains of hemoglobin (PDB entry 1XZ2) revealed that there are 8 arginine, 44 lysine and 30 histidine residues on the protein surface which may be involved in the interactions with the calixarene molecules. The hemoglobin-(t)Butyl[6]CH2COOH complex had pseudoperoxidase activity which catalysed the oxidation of syringaldazine in the presence of hydrogen peroxide in organic medium containing chloroform. The effect of pH, protein and substrate concentrations on biocatalysis was investigated using the hemoglobin-(t)Butyl[6]CH2COOH complex. This complex exhibited the highest specific activity of 9.92 x 10(-2) U mg protein(-1) at an initial pH of 7.5 in organic medium. Apparent kinetic parameters (V'(max), K'(m), k'(cat) and k'(cat)/K'(m)) for the pseudoperoxidase activity were determined in organic media for different pH values from a Michaelis-Menten plot. Furthermore, the stability of the protein-calixarene complex was investigated for different initial pH values and half-life (t(1/2)) values were obtained in the range of 1.96 and 2.64 days. Hemoglobin-calixarene complex present in organic medium was recovered in fresh aqueous solutions at alkaline pH, with a recovery of pseudoperoxidase activity of over 100%. These results strongly suggest that the use of calixarene derivatives is an alternative technique for protein extraction and solubilisation in organic media for biocatalysis.
Resumo:
Integrated manufacturing constitutes a complex system made of heterogeneous information and control subsystems. Those subsystems are not designed to the cooperation. Typically each subsystem automates specific processes, and establishes closed application domains, therefore it is very difficult to integrate it with other subsystems in order to respond to the needed process dynamics. Furthermore, to cope with ever growing marketcompetition and demands, it is necessary for manufacturing/enterprise systems to increase their responsiveness based on up-to-date knowledge and in-time data gathered from the diverse information and control systems. These have created new challenges for manufacturing sector, and even bigger challenges for collaborative manufacturing. The growing complexity of the information and communication technologies when coping with innovative business services based on collaborative contributions from multiple stakeholders, requires novel and multidisciplinary approaches. Service orientation is a strategic approach to deal with such complexity, and various stakeholders' information systems. Services or more precisely the autonomous computational agents implementing the services, provide an architectural pattern able to cope with the needs of integrated and distributed collaborative solutions. This paper proposes a service-oriented framework, aiming to support a virtual organizations breeding environment that is the basis for establishing short or long term goal-oriented virtual organizations. The notion of integrated business services, where customers receive some value developed through the contribution from a network of companies is a key element.
Resumo:
This paper addresses the problem of energy resource scheduling. An aggregator will manage all distributed resources connected to its distribution network, including distributed generation based on renewable energy resources, demand response, storage systems, and electrical gridable vehicles. The use of gridable vehicles will have a significant impact on power systems management, especially in distribution networks. Therefore, the inclusion of vehicles in the optimal scheduling problem will be very important in future network management. The proposed particle swarm optimization approach is compared with a reference methodology based on mixed integer non-linear programming, implemented in GAMS, to evaluate the effectiveness of the proposed methodology. The paper includes a case study that consider a 32 bus distribution network with 66 distributed generators, 32 loads and 50 electric vehicles.
Resumo:
Collaborative Work plays an important role in today’s organizations, especially in areas where decisions must be made. However, any decision that involves a collective or group of decision makers is, by itself complex, but is becoming recurrent in recent years. In this work we present the VirtualECare project, an intelligent multi-agent system able to monitor, interact and serve its customers, which are, normally, in need of care services. In last year’s there has been a substantially increase on the number of people needed of intensive care, especially among the elderly, a phenomenon that is related to population ageing. However, this is becoming not exclusive of the elderly, as diseases like obesity, diabetes and blood pressure have been increasing among young adults. This is a new reality that needs to be dealt by the health sector, particularly by the public one. Given this scenarios, the importance of finding new and cost effective ways for health care delivery are of particular importance, especially when we believe they should not to be removed from their natural “habitat”. Following this line of thinking, the VirtualECare project will be presented, like similar ones that preceded it. Recently we have also assisted to a growing interest in combining the advances in information society - computing, telecommunications and presentation – in order to create Group Decision Support Systems (GDSS). Indeed, the new economy, along with increased competition in today’s complex business environments, takes the companies to seek complementarities in order to increase competitiveness and reduce risks. Under these scenarios, planning takes a major role in a company life. However, effective planning depends on the generation and analysis of ideas (innovative or not) and, as a result, the idea generation and management processes are crucial. Our objective is to apply the above presented GDSS to a new area. We believe that the use of GDSS in the healthcare arena will allow professionals to achieve better results in the analysis of one’s Electronically Clinical Profile (ECP). This achievement is vital, regarding the explosion of knowledge and skills, together with the need to use limited resources and get better results.
Resumo:
Video coding technologies have played a major role in the explosion of large market digital video applications and services. In this context, the very popular MPEG-x and H-26x video coding standards adopted a predictive coding paradigm, where complex encoders exploit the data redundancy and irrelevancy to 'control' much simpler decoders. This codec paradigm fits well applications and services such as digital television and video storage where the decoder complexity is critical, but does not match well the requirements of emerging applications such as visual sensor networks where the encoder complexity is more critical. The Slepian Wolf and Wyner-Ziv theorems brought the possibility to develop the so-called Wyner-Ziv video codecs, following a different coding paradigm where it is the task of the decoder, and not anymore of the encoder, to (fully or partly) exploit the video redundancy. Theoretically, Wyner-Ziv video coding does not incur in any compression performance penalty regarding the more traditional predictive coding paradigm (at least for certain conditions). In the context of Wyner-Ziv video codecs, the so-called side information, which is a decoder estimate of the original frame to code, plays a critical role in the overall compression performance. For this reason, much research effort has been invested in the past decade to develop increasingly more efficient side information creation methods. This paper has the main objective to review and evaluate the available side information methods after proposing a classification taxonomy to guide this review, allowing to achieve more solid conclusions and better identify the next relevant research challenges. After classifying the side information creation methods into four classes, notably guess, try, hint and learn, the review of the most important techniques in each class and the evaluation of some of them leads to the important conclusion that the side information creation methods provide better rate-distortion (RD) performance depending on the amount of temporal correlation in each video sequence. It became also clear that the best available Wyner-Ziv video coding solutions are almost systematically based on the learn approach. The best solutions are already able to systematically outperform the H.264/AVC Intra, and also the H.264/AVC zero-motion standard solutions for specific types of content. (C) 2013 Elsevier B.V. All rights reserved.
Resumo:
Mestrado em Engenharia Informática
Resumo:
In the last years it has become increasingly clear that the mammalian transcriptome is highly complex and includes a large number of small non-coding RNAs (sncRNAs) and long noncoding RNAs (lncRNAs). Here we review the biogenesis pathways of the three classes of sncRNAs, namely short interfering RNAs (siRNAs), microRNAs (miRNAs) and PIWI-interacting RNAs (piRNAs). These ncRNAs have been extensively studied and are involved in pathways leading to specific gene silencing and the protection of genomes against virus and transposons, for example. Also, lncRNAs have emerged as pivotal molecules for the transcriptional and post-transcriptional regulation of gene expression which is supported by their tissue-specific expression patterns, subcellular distribution, and developmental regulation. Therefore, we also focus our attention on their role in differentiation and development. SncRNAs and lncRNAs play critical roles in defining DNA methylation patterns, as well as chromatin remodeling thus having a substantial effect in epigenetics. The identification of some overlaps in their biogenesis pathways and functional roles raises the hypothesis that these molecules play concerted functions in vivo, creating complex regulatory networks where cooperation with regulatory proteins is necessary. We also highlighted the implications of biogenesis and gene expression deregulation of sncRNAs and lncRNAs in human diseases like cancer.
Resumo:
The evolution of hybrid polyploid vertebrates, their viability and their perpetuation over evolutionary time have always been questions of great interest. However, little is known about the impact of hybridization and polyploidization on the regulatory networks that guarantee the appropriate quantitative and qualitative gene expression programme. The Squalius alburnoides complex of hybrid fish is an attractive system to address these questions, as it includes a wide variety of diploid and polyploid forms, and intricate systems of genetic exchange. Through the study of genome-specific allele expression of seven housekeeping and tissue-specific genes, we found that a gene copy silencing mechanism of dosage compensation exists throughout the distribution range of the complex. Here we show that the allele-specific patterns of silencing vary within the complex, according to the geographical origin and the type of genome involved in the hybridization process. In southern populations, triploids of S. alburnoides show an overall tendency for silencing the allele from the minority genome, while northern population polyploids exhibit preferential biallelic gene expression patterns, irrespective of genomic composition. The present findings further suggest that gene copy silencing and variable expression of specific allele combinations may be important processes in vertebrate polyploid evolution.