967 resultados para Lógica-Trabajos anteriores a 1800


Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] La enfermedad celíaca (EC) es una enteropatía autoinmune de predisposición genética, producida por la ingestión en la dieta de péptidos derivados de cereales como el trigo o la cebada. Aunque se creía que afectaba casi de forma exclusiva a los individuos europeos (1%), actualmente se conocen casos en todo el mundo. El modelo patogénico se centra en los mecanismos de la inmunidad adaptativa dependientes de la estimulación de linfocitos T CD4+ reactivos, pero existe además un efecto tóxico directo del gluten sobre el epitelio intestinal, dependiente de la inmunidad innata. La participación de la Genética en la susceptibilidad a la enfermedad es conocida desde hace tiempo, siendo el locus HLA el que explica aproximadamente el 40% del componente genético de la enfermedad. Para tratar de identificar otros genes con susceptibilidad, se han venido realizando múltiples esfuerzos durante los últimos años. Uno de los últimos, llevado a cabo en 2011, fue el Proyecto Immunochip. En él, se analizaron más de 200.000 variantes y se descubrieron 13 nuevos loci de riesgo para la EC, que junto con los descubiertos en anteriores trabajos y el locus HLA, daban un total de 40 loci de riesgo. Entre ellos, se encontraba la región que ocupa el gen LPP . Localizado en el cromosoma 3, un estudio reciente lo vincula con los procesos de adhesión celular en el intestino. En el presente trabajo, se ha estudiado el efecto de la gliadina sobre la expresión del gen de interés (LPP ) y el posible efecto de un silenciamiento del mismo sobre dos genes relacionados con las uniones celulares (ACTB y TJP1). En el caso de la gliadina, no se halló un cambio significativo en la expresión del gen. Mientras, los resultados del efecto del silenciamiento fueron dispares, no siendo concluyentes para el gen ACTB, pero encontrando una posible asociación entre los genes LPP y TJP1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The history of whaling in the Gulf of Maine was reviewed primarily to estimate removals of humpback whales, Megaptera novaeangliae, especially during the 19th century. In the decades from 1800 to 1860, whaling effort consisted of a few localized, small-scale, shore-based enterprises on the coast of Maine and Cape Cod, Mass. Provincetown and Nantucket schooners occasionally conducted short cruises for humpback whales in New England waters. With the development of bomb-lance technology at mid century, the ease of killing humpback whales and fin whales, Balaenoptera physalus, increased. As a result, by the 1870’s there was considerable local interest in hunting rorquals (baleen whales in the family Balaenopteridae, which include the humpback and fin whales) in the Gulf of Maine. A few schooners were specially outfitted to take rorquals in the late 1870’s and 1880’s although their combined annual take was probably no more than a few tens of whales. Also in about 1880, fishing steamers began to be used to hunt whales in the Gulf of Maine. This steamer fishery grew to include about five vessels regularly engaged in whaling by the mid 1880’s but dwindled to only one vessel by the end of the decade. Fin whales constituted at least half of the catch, which exceeded 100 animals in some years. In the late 1880’s and thereafter, few whales were taken by whaling vessels in the Gulf of Maine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A pressão antrópica crescente impõe a necessidade de um monitoramento sistemático da água e de seus ambientes aquáticos. O desenvolvimento de Índices de Qualidade de Água (IQAs) tem como objetivo transformar dados em informações acessíveis e de fácil entendimento para os gestores e usuários das águas, visando refletir a deterioração deste recurso em nível de bacia hidrográfica e ao longo do tempo. O Instituto Estadual do Ambiente (INEA) adotou um novo Índice de Qualidade de Água para ambiente lótico, baseado em lógica nebulosa, o IQAFAL, desenvolvido no âmbito do rio Paraíba do Sul. O objetivo principal deste estudo consiste em aplicar o IQAFAL aos rios dos Macacos, Cabeça e Rainha, contribuintes da bacia de drenagem da Lagoa Rodrigo de Freitas, de grande interesse sócio-político-ambiental para a cidade do Rio de Janeiro. Busca-se analisar a sua adequação em sintetizar a qualidade de água em bacias hidrográficas de pequeno porte e primordialmente urbana. Para tanto, utilizam-se dados físicos, químicos e biológicos do INEA, no período 2003 - 2010. Os resultados mostraram que o IQAFAL foi capaz de refletir a qualidade da água de modo satisfatório e compatível com os registros disponíveis e a percepção de especialistas acerca da real qualidade dos rios. Ou seja, este Índice se mostrou mais sensível às condições ruins, traduzindo a verdadeira condição destes corpos dágua, ao contrário do IQACETESB, que classifica estas águas como de qualidade mediana. Os resultados confirmam também as vantagens deste índice, observadas em estudos anteriores, sobretudo quanto à capacidade de identificar as variáveis de qualidade de água que são mais determinantes para o resultado final do Índice, através do estudo dos subíndices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os testes são uma atividade crucial no desenvolvimento de sistemas, pois uma boa execução dos testes podem expor anomalias do software e estas podem ser corrigidas ainda no processo de desenvolvimento, reduzindo custos. Esta dissertação apresenta uma ferramenta de testes chamada SIT (Sistema de Testes) que auxiliará no teste de Sistemas de Informações Geográficas (SIG). Os SIG são caracterizados pelo uso de informações espaciais georreferenciadas, que podem gerar um grande número de casos de teste complexos. As técnicas tradicionais de teste são divididas em funcionais e estruturais. Neste trabalho, o SIT abordará os testes funcionais, focado em algumas técnicas clássicas como o particionamento de equivalência e análise do Valor Limite. O SIT também propõe o uso de Lógica Nebulosa como uma ferramenta que irá sugerir um conjunto mínimo de testes a executar nos SIG, ilustrando os benefícios da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe-se a descrever uma metodologia para avaliação do sistema de educação fundamental do Estado do Rio de Janeiro, que utiliza a teoria dos conjuntos nebulosos como base, no processo de inferência para geração do Indicador Avaliação do Sistema Educacional (IASE). A base de dados utilizada para criação do indicador IASE foi extraída de dados obtidos do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (INEP). Em seguida, os resultados obtidos são apresentados em um Sistema de informação Geográfica (SIG) possibilitando compreender a correlação de valores alfanuméricos e espacial das informações geradas no sistema nebuloso, de modo apoiar a tomada de decisão das ações governamentais no setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta pesquisa é verificar se houve aumento de conservadorismo na contabilidade brasileira após a publicação das Leis 11.638/2007 e 11.941/2009.A investigaçãojustifica-se pela importância da análise do nível de conservadorismo e do processo de convergência da contabilidade brasileira. Foram coletados os ajustes de patrimônio líquido e lucro líquido nas demonstrações contábeis dos anos de 2008 e 2009 e a partir deles utilizou-se a metodologia proposta por Gray (1980) para aferição do nível de conservadorismo. A pesquisa é empírica e a amostra foi composta pelas companhias que compuseram a primeira carteira teórica do IBRXem 2013, excluindo do rol as instituições financeiras. Após outras exclusões pertinentes, a amostra ficou constituída por 54 empresas para a primeira fase da transição (2008) e 70 para a segunda fase do processo (2010). A metodologia constituiu na utilização do teste não paramétrico de Wilcoxon, do Teste da Mediana e de estatísticas descritivas. Com base nas métricas construídas e nos testes estatísticos aplicados, concluiu-se que não houve variação estatisticamente significativa no nível de conservadorismo contábil brasileiro com a adoção dos novos padrões contábeis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação trata do que se entende como terrorismo após os atentados de setembro de 2001, seja como lógica de ação ou como método de ação. A partir desta data, o terrorismo alcançou enorme projeção e passou a figurar como tema central tanto na imprensa cotidiana quanto em reuniões internacionais de cúpula. O fenômeno era, muitas vezes, historicamente circunscrito às nações que enfrentavam esse problema. Após o Onze de Setembro, o debate expandiu-se e as políticas, e a propaganda, antiterroristas incidiram sobre a sociedade, modificando comportamentos individuais e coletivos. A associação entre Islamismo e terrorismo foi frequente e a Guerra Contra ao Terror (GCT), promovida pela política externa norte-americana de George W. Bush, contribuiu para difundir uma percepção do terrorismo como uma lógica de ação afeita à violência em si. Isso contrasta com a percepção quanto a grupos terroristas de momentos históricos anteriores, cujo recurso ao terrorismo era compreendido como método de ação com valor instrumental para alcançar objetivos políticos diversos, como a emancipação nacional e a desestabilização de regimes políticos estabelecidos. O estudo de caso da Organização de Xangai (OCX) visa demonstrar que a identificação entre terrorismo e Islã leva ao equívoco de compreender os grupos terroristas contemporâneos islâmicos, com lógicas próprias, como uma fenômeno só o que leva à imprecisão de atribuir ao terrorismo o caráter de primeiro fenômeno macro-securitizado. Este breve histórico da ascensão do terrorismo na agenda política contemporânea, mediante a análise do processo securitizador tanto na GCT quanto na Organização de Cooperação de Xangai, serve como referência para as análises contidas no trabalho que o leitor tem em mãos, uma vez que o sentido atribuído ao terrorismo só pode ser entendido em termos dos atores políticos envolvidos na sua definição e no contexto em qual o fazem. Na OCX, o verificou-se o entendimento do terrorismo como método de ação de grupos separatistas, o que não corresponde à ideia do terrorismo como lógica de ação contida na GCT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desse trabalho e selecionar especies nativas e/ou exoticas com potencial para produzir lenha e derivados, e estudar tecnicas de manejo adequadas a implantacao de producao de lenha em plantios ordenados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Projeto de Pós-Graduação/Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Medicina Dentária