939 resultados para Branch and bound algorithms


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Autocrine ligands are important regulators of many normal tissues and have been implicated in a number of disease states, including cancer. However, because by definition autocrine ligands are synthesized, secreted, and bound to cell receptors within an intrinsically self-contained “loop,” standard pharmacological approaches cannot be used to investigate relationships between ligand/receptor binding and consequent cellular responses. We demonstrate here a new approach for measurement of autocrine ligand binding to cells, using a microphysiometer assay originally developed for investigating cell responses to exogenous ligands. This technique permits quantitative measurements of autocrine responses on the time scale of receptor binding and internalization, thus allowing investigation of the role of receptor trafficking and dynamics in cellular responses. We used this technique to investigate autocrine signaling through the epidermal growth factor receptor by transforming growth factor alpha (TGFα) and found that anti-receptor antibodies are far more effective than anti-ligand antibodies in inhibiting autocrine signaling. This result indicates that autocrine-based signals can operate in a spatially restricted, local manner and thus provide cells with information on their local microenvironment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Transthyretin (TTR) tetramer dissociation and misfolding facilitate assembly into amyloid fibrils that putatively cause senile systemic amyloidosis and familial amyloid polyneuropathy. We have previously discovered more than 50 small molecules that bind to and stabilize tetrameric TTR, inhibiting amyloid fibril formation in vitro. A method is presented here to evaluate the binding selectivity of these inhibitors to TTR in human plasma, a complex biological fluid composed of more than 60 proteins and numerous small molecules. Our immunoprecipitation approach isolates TTR and bound small molecules from a biological fluid such as plasma, and quantifies the amount of small molecules bound to the protein by HPLC analysis. This approach demonstrates that only a small subset of the inhibitors that saturate the TTR binding sites in vitro do so in plasma. These selective inhibitors can now be tested in animal models of TTR amyloid disease to probe the validity of the amyloid hypothesis. This method could be easily extended to evaluate small molecule binding selectivity to any protein in a given biological fluid without the necessity of determining or guessing which other protein components may be competitors. This is a central issue to understanding the distribution, metabolism, activity, and toxicity of potential drugs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We review two new methods to determine the age of globular clusters (GCs). These two methods are more accurate than the classical isochrone fitting technique. The first method is based on the morphology of the horizontal branch and is independent of the distance modulus of the globular cluster. The second method uses a careful binning of the stellar luminosity function and determines simultaneously the distance and age of the GC. We find that the oldest galactic GCs have an age of 13.5 ± 2 gigayears (Gyr). The absolute minimum age for the oldest GCs is 10.5 Gyr (with 99% confidence) and the maximum 16.0 Gyr (with 99% confidence). Therefore, an Einstein–De Sitter Universe (Ω = 1) is not totally ruled out if the Hubble constant is about 65 ± 10 Km s−1 Mpc−1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We have molecularly cloned a cDNA encoding a protein uniquely expressed and hyperphosphorylated at tyrosine residues in a Ki-1 lymphoma cell that contained chromosomal translocation t(2;5). The encoded protein p80 was shown to be generated by fusion of a protein-tyrosine kinase and a nucleolar protein B23/nucleophosmin (NPM). The coding sequence of this cDNA turned out to be virtually identical to that of the fusion cDNA for NPM-anaplastic lymphoma kinase (ALK) previously cloned from the transcript of the gene at the breakpoint of the same translocation. Overexpression of p80 in NIH 3T3 cells induced neoplastic transformation, suggesting that the p80 kinase is aberrantly activated. The normal form of p80 was predicted to be a receptor-type tyrosine kinase on the basis of its sequence similarity to the insulin receptor family of kinases. However, an immunofluorescence study using COS cells revealed that p80 was localized to the cytoplasm. Thus, subcellular translocation and activation of the tyrosine kinase presumably by its structural alteration would cause the malignant transformation. We also showed that a mutant p80 lacking the NPM portion was unable to transform NIH 3T3 cells. Thus, the NPM sequence is essential for the transforming activity, suggesting that the chromosomal translocation is responsible for the oncogenesis. Finally, Shc and insulin receptor substrate 1 (IRS-1) were tyrosine-phosphorylated and bound to p80 in p80-transformed cells. However, mutants of p80 that were defective for binding to and phosphorylation of Shc and insulin receptor substrate 1 could transform NIH 3T3 cells. Association of these mutants with GRB2 was still observed, suggesting that interaction of p80 with GRB2 but not with Shc or IRS-1 was relevant for cell transformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Speech interface technology, which includes automatic speech recognition, synthetic speech, and natural language processing, is beginning to have a significant impact on business and personal computer use. Today, powerful and inexpensive microprocessors and improved algorithms are driving commercial applications in computer command, consumer, data entry, speech-to-text, telephone, and voice verification. Robust speaker-independent recognition systems for command and navigation in personal computers are now available; telephone-based transaction and database inquiry systems using both speech synthesis and recognition are coming into use. Large-vocabulary speech interface systems for document creation and read-aloud proofing are expanding beyond niche markets. Today's applications represent a small preview of a rich future for speech interface technology that will eventually replace keyboards with microphones and loud-speakers to give easy accessibility to increasingly intelligent machines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper describes the state of the art in applications of voice-processing technologies. In the first part, technologies concerning the implementation of speech recognition and synthesis algorithms are described. Hardware technologies such as microprocessors and DSPs (digital signal processors) are discussed. Software development environment, which is a key technology in developing applications software, ranging from DSP software to support software also is described. In the second part, the state of the art of algorithms from the standpoint of applications is discussed. Several issues concerning evaluation of speech recognition/synthesis algorithms are covered, as well as issues concerning the robustness of algorithms in adverse conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Research in speech recognition and synthesis over the past several decades has brought speech technology to a point where it is being used in "real-world" applications. However, despite the progress, the perception remains that the current technology is not flexible enough to allow easy voice communication with machines. The focus of speech research is now on producing systems that are accurate and robust but that do not impose unnecessary constraints on the user. This chapter takes a critical look at the shortcomings of the current speech recognition and synthesis algorithms, discusses the technical challenges facing research, and examines the new directions that research in speech recognition and synthesis must take in order to form the basis of new solutions suitable for supporting a wide range of applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many hormone and cytokine receptors are crosslinked by their specific ligands, and multimerization is an essential step leading to the generation of a signal. In the case of the tumor necrosis factor (TNF) receptors (TNF-Rs), antibody-induced crosslinking is sufficient to trigger a cytolytic effect. However, the quaternary structural requirements for signaling--i.e., the formation of dimers, trimers, or higher-order multimers--have remained obscure. Moreover, it has not been clear whether the 55-kDa or 75-kDa TNF-R is responsible for initiation of cytolysis. We reasoned that an obligate receptor dimer, targeted to the plasma membrane, might continuously signal the presence of TNF despite the actual absence of the ligand. Such a molecule, inserted into an appropriate vector, could be used to project receptor-specific "TNF-like" activity to specific cells and tissues in vivo. Accordingly, we constructed sequences encoding chimeric receptors in which the extracellular domain of the mouse erythropoietin receptor (Epo-R) was fused to the "stem," transmembrane domain, and cytoplasmic domain of the two mouse TNF-Rs. Thus, the Epo-R group was used to drive dimerization of the TNF-R cytoplasmic domain. These chimeric proteins were well expressed in a variety of cell lines and bound erythropoietin at the cell surface. Both the 55-kDa and the 75-kDa Epo/TNF-R chimeras exerted a constitutive cytotoxic effect detected by cotransfection or clonogenic assay. Thus, despite the lack of structural homology between the cytoplasmic domains of the two TNF-Rs, a similar signaling endpoint was observed. Moreover, dimerization (rather than trimerization or higher-order multimerization) was sufficient for elicitation of a biological response.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O uso da irrigação em cafeeiro é uma tecnologia que vem se consolidando e mostrando-se economicamente viável ao longo dos tempos, trazendo junto com ela a técnica da fertirrigação. Desta forma, o presente estudo teve como objetivo avaliar a influência de formas de aplicação e fontes de fertilizantes sobre a condutividade elétrica e pH da solução do solo, bem como no desenvolvimento e produção do café conilon irrigado por gotejamento. O trabalho foi desenvolvido em São Gabriel da Palha, Espírito Santo, utilizando o clone 12V da variedade INCAPER 8142. O experimento foi delineado em blocos ao acaso (DBC) com seis tratamentos e quatro blocos. Os tratamentos adotados foram: T1 - Controle - adubação nitrogenada e potássica aplicada via solo nas fontes ureia e cloreto de potássio; T2 - Adubação nitrogenada e potássica aplicada via solo nas fontes ureia e cloreto de potássio de liberação controlada; T3 - Adubação nitrogenada e potássica aplicada via fertirrigação nas fontes ureia e cloreto de potássio; T4 - Adubação nitrogenada e potássica aplicada via fertirrigação nas fontes nitrato de amônio e sulfato de potássio; T5 - Adubação nitrogenada e potássica aplicada via fertirrigação nas fontes nitrato de amônio e nitrato de potássio; T6 - Adubação nitrogenada e potássica aplicada via solo nas fontes ureia e cloreto de potássio de liberação controlada no período de outubro a março (período chuvoso) e adubação nitrogenada e potássica aplicada via fertirrigação, nas fontes nitrato de amônio e sulfato de potássio no período de abril a setembro (período seco). Foi monitorado o pH e condutividade elétrica da solução do solo, avaliações biométricas das plantas tais como altura, comprimento do primeiro ramo plagiotrópico e número de nós no primeiro ramo plagiotrópico, além da produção por planta e estimativa de produtividade. Os tratamentos T1 e T3 que utilizaram ureia e cloreto de potássio e o T4 - nitrato de amônio e sulfato de potássio disponibilizaram maiores quantidade de nitrogênio na forma amoniacal, causando maior acidificação do bulbo. Em contrapartida os tratamentos T2, T5 e T6 apresentaram menor acidificação, com diferença estatística significativa na variação do pH nas duas profundidades analisadas a partir de 18 meses da aplicação dos tratamentos. Nos tratamentos T2 e T6 observou-se menor salinidade inicial na avaliação aos 90 dias após o plantio através da leitura da condutividade elétrica da solução do solo. Para as avaliações biométricas, os tratamentos T2, T4, T5 e T6 diferiram estatisticamente dos tratamentos T1 e T3, influenciando positivamente à altura de plantas, comprimento e número de nós no primeiro ramo plagiotrópico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos Estados republicanos modernos, o sistema de freios e contrapesos é um dos modelos institucionais responsável por assegurar o equilíbrio entre os Poderes e prevenir abusos por parte dos governantes. Dois questionamentos podem ser encontrados na literatura brasileira sobre o tema e fundamentam esta Dissertação: um geral sobre o suposto poder excessivo que o nosso sistema político confere ao Poder Executivo e outro, específico, de que nesse contexto, o veto teria um papel central na supremacia do presidente da república sobre o Congresso Nacional no âmbito do processo legislativo. Partindo dessas premissas, a pesquisa avalia se essas características estão condizentes com as expectativas e o desenho institucional proposto para o Estado brasileiro pela Assembleia Nacional Constituinte ANC de 1987. Com base nos anais da ANC e em referências históricas, conclui-se que, ao menos no tocante ao instituto do veto presidencial, o modelo de preponderância do Poder Executivo observado no processo legislativo decorreu de uma opção deliberada e reafirmada pela elite política em 1988, quando da promulgação da Constituição.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O papel desempenhado pelo Poder Judiciário nos mais diversos Estados passa por sensível evolução ao longo do século XX, à medida que se desenvolveram os sistemas de controle de constitucionalidade. De um lado, os atores políticos assumem especial importância nesse processo. Os modelos de revisão judicial foram reforçados, no mais das vezes, em paralelo à positivação, em âmbito constitucional, de um amplo rol de direitos fundamentais e de princípios balizadores e limitadores do poder estatal. Com isso, os elementos cotejados no processo legislativo de tomada de decisões políticas são revestidos de status constitucional e transportados para o discurso argumentativo do Direito, o que leva a um processo de judicialização da Política que permite que a atividade legiferante seja passível de confronto perante instâncias judiciárias. Os instrumentos de controle de constitucionalidade assumem, assim, novos contornos, permitindo que o Judiciário interfira no conteúdo das escolhas políticas feitas pela maioria governante. De outro lado, o Poder Judiciário particularmente as Cortes Constitucionais passa a assumir a corresponsabilidade na efetivação das metas e compromissos estatais, com o que desenvolve uma política institucional mais proativa e comprometida com a concretização substancial de valores democráticos, interferindo, assim, de maneira mais incisiva e rígida no controle do processo político. A definição de políticas fundamentais e o processo legiferante passam a contar com constante participação do Judiciário. Na realidade brasileira, a Constituição de 1988 amplia as competência do Supremo Tribunal Federal em sede de controle de constitucionalidade, inserindo o órgão de maneira efetiva nesse contexto de intervenção judicial na Política. A última década, por sua vez, marcou uma perceptível mudança em sua atividade e em sua interferência no processo de tomada de decisões políticas pelos demais Poderes. Valendo-se dos diversos instrumentos de controle que lhe são disponibilizados, assumiu o compromisso de participar na efetivação dos preceitos constitucionais pátrios mediante a revisão do conteúdo normativo decorrente das escolhas políticas tomadas em outras instâncias. Desse modo, tornou-se verdadeiro copartícipe do processo de definição de políticas legislativas nacionais, seja rechaçando normas que repute inconstitucionais, seja proferindo decisões com claros efeitos normativos que buscam readequar e conformar as escolhas dos atores políticos. Nesse processo decisório, entra em jogo a intensidade com que a Corte busca impor sua visão e suas concepções no tocante à efetivação e concretização dos compromissos constitucionais. A sobreposição de ponderações judiciais e legislativas acarreta, a seu turno, importantes efeitos sistêmicos ao diálogo interinstitucional que se desenvolve entre os Poderes, em especial no que concerne à distribuição das funções estatais dentro das premissas democráticas e ao dimensionamento do papel que compete a cada um dos Poderes no processo de efetivação e proteção da Constituição.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Atualmente vêm sendo desenvolvidas e utilizadas várias técnicas de modelagem de distribuição geográfica de espécies com os mais variados objetivos. Algumas dessas técnicas envolvem modelagem baseada em análise ambiental, nas quais os algoritmos procuram por condições ambientais semelhantes àquelas onde as espécies foram encontradas, resultando em áreas potenciais onde as condições ambientais seriam propícias ao desenvolvimento dessas espécies. O presente estudo trata do uso da modelagem preditiva de distribuição geográfica, através da utilização de algoritmo genético e algoritmo de distância, de espécies como ferramenta para a conservação de espécies vegetais, em três situações distintas: modelagem da distribuição do bioma cerrado no estado de São Paulo; previsão da ocorrência de espécies arbóreas visando à restauração da cobertura vegetal na bacia do Médio Paranapanema e modelagem da distribuição de espécies ameaçadas de extinção (Byrsonima subterranea). A metodologia empregada e os resultados obtidos foram considerados satisfatórios para a geração de modelos de distribuição geográfica de espécies vegetais, baseados em dados abióticos, para as regiões de estudo. A eficácia do modelo em predizer a ocorrência de espécies do cerrado é maior se forem utilizados apenas pontos de amostragem com fisionomias de cerrado, excluindo-se áreas de transição. Para minimizar problemas decorrentes da falta de convergência do algoritmo utilizado GARP (Genetic Algorithm for Rule Set Production), foram gerados 100 modelos para cada espécie modelada. O uso de modelagem pode auxiliar no entendimento dos padrões de distribuição de um bioma ou ecossistema em uma análise regional e local.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desenvolve-se um método para estimar os parâmetros de uma rede hidráulica a partir de dados observados de cargas hidráulicas transientes. Os parâmetros físicos da rede como fatores de atrito, rugosidades absolutas, diâmetros e a identificação e quantificação de vazamentos são as grandezas desconhecidas. O problema transiente inverso é resolvido utilizando uma abordagem indireta que compara os dados disponíveis de carga hidráulica transiente observados com os calculados através de um método matemático. O Método Transiente Inverso (MTI) com um Algoritmo Genético (AG) emprega o Método das Características (MOC) na solução das equações do movimento para escoamento transiente em redes de tubos. As condições de regime permanente são desconhecidas. Para avaliar a confiabilidade do MTI-AG desenvolvido aqui, uma rede-exemplo é usada para os vários problemas de calibração propostos. O comportamento transiente é imposto por duas manobras distintas de uma válvula de controle localizada em um dos nós da rede. Analisam-se, ainda, o desempenho do método proposto mediante a variabilidade do tamanho do registro transiente e de possíveis erros de leitura nas cargas hidráulicas. Ensaios numéricos realizados mostram que o método é viável e aplicável à solução de problema inverso em redes hidráulicas, sobretudo recorrendo-se a poucos dados observados e ao desconhecimento das condições iniciais de estado permanente. Nos diversos problemas de identificação, as informações transientes obtidas da manobra mais brusca produziu estimações mais eficientes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the current Information Age, data production and processing demands are ever increasing. This has motivated the appearance of large-scale distributed information. This phenomenon also applies to Pattern Recognition so that classic and common algorithms, such as the k-Nearest Neighbour, are unable to be used. To improve the efficiency of this classifier, Prototype Selection (PS) strategies can be used. Nevertheless, current PS algorithms were not designed to deal with distributed data, and their performance is therefore unknown under these conditions. This work is devoted to carrying out an experimental study on a simulated framework in which PS strategies can be compared under classical conditions as well as those expected in distributed scenarios. Our results report a general behaviour that is degraded as conditions approach to more realistic scenarios. However, our experiments also show that some methods are able to achieve a fairly similar performance to that of the non-distributed scenario. Thus, although there is a clear need for developing specific PS methodologies and algorithms for tackling these situations, those that reported a higher robustness against such conditions may be good candidates from which to start.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This volume, containing chronologically arranged papers mounted and bound around 1840, provides comprehensive documentation of the College commons around the turn of the 19th century. In particular, the volume documents the role the Steward played in overseeing the Commons. The records chiefly consist of the quarter reports of the Committee assigned to review the Steward’s accounts. Other documents include lists of utensils, bills for dinners for the Corporation, Overseers, and Commencement, regulations, lists of abatements for students’ quarterly bills, and information on kitchen staff.