965 resultados para Algoritmo Boosting
Resumo:
Tesis (Doctor en Filosofía con Especialidad en Administración) UANL, 2004.
Resumo:
Tesis (Doctor en Ingeniería Eléctrica) UANL, 2013.
Resumo:
Contexto: la esquizofrenia es un síndrome complejo relacionado con genes y factores de riesgo no genéticos. Estudios epidemiológicos reconocidos reportan su presencia en todas las culturas y regiones geográficas. En este sentido, las Hipótesis Etiológicas Unificadas enfrentan simultáneamente el desafío de presentar los datos experimentales y demostrar que éstos dan cuenta del perfil universal del síndrome. Objetivos: revisar sistemáticamente las más prominentes Hipótesis Etiológicas Unifi - cadas, así como la distribución semántica de los hallazgos genéticos (mediante técnicas de minería de datos) y proponer un nuevo modelo, basado en los efectos dinámicos de carácter epigenético sobre la activación genética en el neurodesarrollo y la pubertad. Resultados: de manera general, las Hipótesis Etiológicas Unificadas contradicen los principales hallazgos genéticos (que sugieren que la esquizofrenia está asociada al perfil de neurotransmisores como D-1 y la cascada Glutamato-NMDA); también, por regla general, los hallazgos genéticos se encuentran esparcidos por todo el genoma (tal como revelamos en un mapa topológico de los 3519 estudios en el asunto). La clave para este estado complejo de cosas puede estar representada por la asociación entre la perspectiva de que cada polimorfismo asociado a la esquizofrenia representa un factor de riesgo estadístico (es decir, aumentando el riesgo de inestabilidades del desarrollo), mientras que las cascadas moleculares de carácter epigenético y los factores de riesgo ambientales permanecen actuantes mediante la activación de genes en períodos críticos.
Resumo:
Análisis del algoritmo de la raíz cuadrada, con el objetivo de acercar éste al alumnado de una forma más estimulante. Éste análisis se realiza por dos vías diferentes. En primer lugar, el estudio se centra en la parte geométrica que se deriva del algoritmo. A continuación se enfoca hacia el modelo estadístico, de forma que mediante aproximaciones se trata de alcanzar el grado de exactitud.
Resumo:
Resumen tomado de la publicación
Resumo:
Resumen tomado del autor
Resumo:
Monográfico con el título: 'Educación matemática y tecnologías de la información'. Resumen basado en el de la publicación
Resumo:
La autora, tras revisar las teorías sobre la adquisición de la multiplicación, el proceso de construcción de las relaciones multiplicativas, y partiendo de una experiencia con niños sobre la utilización del algoritmo tipo red (S. XV) para un mejor aprendizaje de la multiplicación aritmética, inicia su investigación partiendo de la hipótesis de que este método basado en el producto cartesiano, se ajusta mejor a las estructuras del pensamiento, y por tanto, permite una mejor comprensión también en sujetos adultos. Compuesta por 17 sujetos entre 26 y 52 años, 16 mujeres y 1 hombre, pertenecientes a Educación Permanente de Adultos de Elda (Alicante), aunque la investigación sólo la finalizaron 4 sujetos por muerte experimental del 76'5 por ciento. La investigación utiliza un diseño de pretest-postest. Pruebas 'ad hoc' utilizadas en el pretest-postest que consistían en una serie de ítems que, independientemente dan información sobre los distintos aspectos de la multiplicación. Programa escolar utilizado para la enseñanza de la multiplicación. Resolución de problemas reales, cotidianos, de los sujetos por medio de la operación de multiplicar. Análisis cualitativo de los datos comparados en el pretest y el postest, enumeración de los progresos y/o estancamientos de los sujetos de la investigación. El método del algoritmo en red sí permite la capacitación de los individuos pues posibilita la construcción de estructuras multiplicativas. Desde el punto de vista empírico esto es válido, aunque, en los sujetos de esta investigación, debido a sus especiales características no ha podido ser discriminativo para la comprobación de la hipótesis. Aunque el algoritmo empleado ha favorecido la comprensión de la multiplicación, no ha motivado suficientemente a los sujetos por diversos motivos: A) No se ajusta a sus intereses que son el aprendizaje de las tablas de multiplicar. B) Confunden rapidez con efectividad. C) No tiene relación con las nociones anteriores sobre el tema. D) Siguen anclados en estructuras aditivas por lo que no encuentran significado a otra entidad matemática.
Resumo:
In this paper, we present a feature selection approach based on Gabor wavelet feature and boosting for face verification. By convolution with a group of Gabor wavelets, the original images are transformed into vectors of Gabor wavelet features. Then for individual person, a small set of significant features are selected by the boosting algorithm from a large set of Gabor wavelet features. The experiment results have shown that the approach successfully selects meaningful and explainable features for face verification. The experiments also suggest that for the common characteristics such as eyes, noses, mouths may not be as important as some unique characteristic when training set is small. When training set is large, the unique characteristics and the common characteristics are both important.
Resumo:
A greedy technique is proposed to construct parsimonious kernel classifiers using the orthogonal forward selection method and boosting based on Fisher ratio for class separability measure. Unlike most kernel classification methods, which restrict kernel means to the training input data and use a fixed common variance for all the kernel terms, the proposed technique can tune both the mean vector and diagonal covariance matrix of individual kernel by incrementally maximizing Fisher ratio for class separability measure. An efficient weighted optimization method is developed based on boosting to append kernels one by one in an orthogonal forward selection procedure. Experimental results obtained using this construction technique demonstrate that it offers a viable alternative to the existing state-of-the-art kernel modeling methods for constructing sparse Gaussian radial basis function network classifiers. that generalize well.
Resumo:
The International Plant Proteomics Organization (INPPO) is a non-profit-organization consisting of people who are involved or interested in plant proteomics. INPPO is constantly growing in volume and activity, which is mostly due to the realization among plant proteomics researchers worldwide for the need of such a global platform. Their active participation resulted in the rapid growth within the first year of INPPO’s official launch in 2011 via its website (www.inppo.com) and publication of the ‘viewpoint paper’ in a special issue of PROTEOMICS (May 2011). Here, we will be highlighting the progress achieved in the year 2011 and the future targets for the year 2012 and onwards. INPPO has achieved a successful administrative structure, the Core Committee (CC; composed of President, Vice-President, and General Secretaries), Executive Council (EC), and General Body (GB) toward achieving the INPPO objectives by its proposed initiatives. Various committees and subcommittees are in the process of being functionalized via discussion amongst scientists around the globe. INPPO’s primary aim to popularize the plant proteomics research in biological sciences has also been recognized by PROTEOMICS where a new section has been introduced to plant proteomics starting January 2012, following the very first issue of this journal devoted to plant proteomics in May 2011. To disseminate organizational activities to the scientific community, INPPO has launched a biannual (in January & July) newsletter entitled “INPPO Express: News & Views” with the first issue published in January 2012. INPPO is also planning to have several activities in 2012, including programs within the Education Outreach committee in different countries, and the development of research ideas and proposals with priority on crop and horticultural plants, while keeping tight interactions with proteomics programs on model plants such as Arabidopsis thaliana, rice, or Medicago truncatula. Altogether, the INPPO progress and upcoming activities are because of immense support, dedication, and hard work of all members of the INPPO family, and also due to the wide encouragement and support from the communities (scientific and non-scientific).
Resumo:
Recombinant Bacillus subtilis strains, either spores or vegetative cells, may be employed as safe and low cost orally delivered live vaccine vehicles. In this study, we report the use of an orally delivered B. subtilis vaccine strain to boost systemic and secreted antibody responses in mice i.m. primed with a DNA vaccine encoding the structural subunit (CfaB) of the CFA/I fimbriae encoded by enterotoxigenic Escherichia coli (ETEC), an important etiological agent of diarrhea among travelers and children living in endemic regions. DBA/2 female mice submitted to the prime-boost immunization regimen developed synergic serum (IgG) and mucosal (IgA) antibody responses to the target CfaB antigen. Moreover, in contrast to mice immunized only with one vaccine formulation, sera harvested from prime-boosted vaccinated individuals inhibited adhesion of ETEC cells to human red blood cells. Additionally, vaccinated dams conferred full passive protection to suckling newborn mice challenged with a virulent ETEC strain. Taken together the present results further demonstrate the potential use of recombinant B. subtilis strains as an alternative live vaccine vehicle. (C) 2008 Elsevier Ltd. All rights reserved.
Resumo:
Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.
Resumo:
O presente trabalho tem por objetivo estudar e aplicar um método de integração numérica de tempo para estrutras dinâmicas com dissipação de energia. Nessa dissertação tal método é analisado e posteriormente implementado em MATLAB, afim de resolver algumas aplicações em sistemas dinâmicos dotados de massas, molas e amortecedores que são apresentados no primeiro capítulo. Usando o método implementado em MATLAB, também é apresentada uma aplicação para vibrações transversais em cordas axialmente.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.