887 resultados para Algoritmo Boosting
Resumo:
Resumen: Michael Behe y William Dembski son dos de los líderes de la Teoría del Diseño Inteligente, una propuesta surgida como respuesta a los modelos evolucionistas y anti-finalistas prevalentes en ciertos ambientes académicos e intelectuales, especialmente del mundo anglosajón. Las especulaciones de Behe descansan en el concepto de “sistema de complejidad irreductible”, entendido como un conjunto ordenado de partes cuya funcionalidad depende estrictamente de su indemnidad estructural, y que su origen resulta, por tanto, refractario a explicaciones gradualistas. Estos sistemas, según Behe, están presentes en los vivientes, lo que permitiría inferir que ellos no son el producto de mecanismos ciegos y azarosos, sino el resultado de un diseño. Dembski, por su parte, ha abordado el problema desde una perspectiva más cuantitativa, desarrollando un algoritmo probabilístico conocido como “filtro explicatorio”, que permitiría, según el autor, inferir científicamente la presencia de un diseño, tanto en entidades artificiales como naturales. Trascendiendo las descalificaciones del neodarwinismo, examinamos la propuesta de estos autores desde los fundamentos filosóficos de la escuela tomista. A nuestro parecer, hay en el trabajo de estos autores algunas intuiciones valiosas, las que sin embargo suelen pasar desapercibidas por la escasa formalidad en que vienen presentadas, y por la aproximación eminentemente mecanicista y artefactual con que ambos enfrentan la cuestión. Es precisamente a la explicitación de tales intuiciones a las que se dirige el artículo.
Resumo:
Se presenta la metodología de presupuestos parciales como método de análisis económico de experimentos agrícolas y se analizan algunas inconsistencias encontradas en la misma. Tales inconsistencias incluyen: la implementación del análisis cuando el ANAVA no presenta diferencias estadísticas entre tratamientos, y la ejecución del mismo sin considerar la naturaleza de los tratamientos. Otras inconsistencias adicionales, son la conducción de los análisis sin usar precios de campo, llegar a conclusiones sobre el tratamiento más rentable sin usar ninguna tasa núnima de retomo, generar una recomendación a partir de un solo experimento, analizar los datos sin corregir los rendimientos experimentales, y estimar los costos a partir de la información del experimento. En este escrito no se busca reinventar el enfoque de presupuestos parciales, en su lugar se busca reenseñar su uso. Para ello, inicialmente se hace una exposición de cuando se debe usar el enfoque, luego a manera de algoritmo, se enumeran los pasos que se deben seguir para hacer un análisis económico siguiendo este método. Se continua con una discusión sobre la relación entre presupuestos parciales y optimización de funciones de producción. Finalmente, se presentan un caso de análisis
Resumo:
Resumen: El cognitive enhancement, o el uso de la medicina y la tecnología para lograr el potenciamiento cognitivo sin fines terapéuticos, es una de las temáticas de las cuales se interesa la neurobioética, es decir, la rama de la neuroética que estudia el actuar neurocientífico desde el punto de vista de la bioética tradicional. Este potenciamiento podría llevarse a cabo mediante el uso offlevel de fármacos que están en uso para tratar patologías, mediante la estimulación cerebral externa o mediante implantes cerebrales. El uso de estas terapias, muy difundidas entre los estudiantes y profesores de las grandes universidades, ha suscitado un gran interés académico especialmente en el norte de Europa y Estado Unidos y entre los posthumanistas que las consideran fundamentales para lograr el avance en la escala evolutiva.
Resumo:
El Manual de Prácticas de Laboratorio tiene como objetivo principal que los estudiantes tengan de forma directa los contenidos prácticos y de procedimiento para el diagnóstico de las enfermedades más frecuentes en las especies en explotación. Se reúne la información básica y necesarios a adquirir; el algoritmo para alcanzar la compleja tarea del aislamiento e identificación de los agentes etiológicos causantes de las enfermedades mediante el empleo de métodos y técnicas que son el resultado de las experiencias de personas que dedicaron toda su vida a la preservación de la salud pública y veterinaria. Como proceso instructivo es de interés que los estudiantes adquieran un método de estudio y de organización en el proceso de aprendizaje. Es propósito redactar mejor y además se adquieran hábitos y habilidades con una actividad independiente en una interrelación constante con la teoría. Es muy importante tener un sentido amplio, generalizador, de constante búsqueda de soluciones, así también propiciar un pensamiento de carácter experimental y cientifico de forma activa hacia la comprobación en la práctica diaria todo lo aprendido. Los conocimientos adquiridos han de propiciar el interés por profundizar y conocer más hacia la búsqueda de soluciones por lo cual, ha de tener en cuenta el trabajo bibliográfico y el vínculo necesario con otras disciplinas de la especialidad. El autor y todos los que me precedieron y aportaron les damos los instrumentos para que se preparen como profesionales capaces de cumplir con sus futuras responsabilidades y compromisos sociales.
Resumo:
[ES] Cada vez más el deporte-espectáculo se está abriendo paso como objeto de estudio en los centros de investigación avanzada, como consecuencia de la necesidad de gestionar los altos presupuestos de las entidades deportivas.
Resumo:
131 p.: graf.
Resumo:
[ES]La fibrilación ventricular (VF) es el primer ritmo registrado en el 40\,\% de las muertes súbitas por paro cardiorrespiratorio extrahospitalario (PCRE). El único tratamiento eficaz para la FV es la desfibrilación mediante una descarga eléctrica. Fuera del hospital, la descarga se administra mediante un desfibrilador externo automático (DEA), que previamente analiza el electrocardiograma (ECG) del paciente y comprueba si presenta un ritmo desfibrilable. La supervivencia en un caso de PCRE depende fundamentalmente de dos factores: la desfibrilación temprana y la resucitación cardiopulmonar (RCP) temprana, que prolonga la FV y por lo tanto la oportunidad de desfibrilación. Para un correcto análisis del ritmo cardiaco es necesario interrumpir la RCP, ya que, debido a las compresiones torácicas, la RCP introduce artefactos en el ECG. Desafortunadamente, la interrupción de la RCP afecta negativamente al éxito en la desfibrilación. En 2003 se aprobó el uso del DEA en pacientes entre 1 y 8 años. Los DEA, que originalmente se diseñaron para pacientes adultos, deben discriminar de forma precisa las arritmias pediátricas para que su uso en niños sea seguro. Varios DEAs se han adaptado para uso pediátrico, bien demostrando la precisión de los algoritmos para adultos con arritmias pediátricas, o bien mediante algoritmos específicos para arritmias pediátricas. Esta tesis presenta un nuevo algoritmo DEA diseñado conjuntamente para pacientes adultos y pediátricos. El algoritmo se ha probado exhaustivamente en bases de datos acordes a los requisitos de la American Heart Association (AHA), y en registros de resucitación con y sin artefacto RCP. El trabajo comenzó con una larga fase experimental en la que se recopilaron y clasificaron retrospectivamente un total de 1090 ritmos pediátricos. Además, se revisó una base de arritmias de adultos y se añadieron 928 nuevos ritmos de adultos. La base de datos final contiene 2782 registros, 1270 se usaron para diseñar el algoritmo y 1512 para validarlo. A continuación, se diseñó un nuevo algoritmo DEA compuesto de cuatro subalgoritmos. Estos subalgoritmos están basados en un conjunto de nuevos parámetros para la detección de arritmias, calculados en diversos dominios de la señal, como el tiempo, la frecuencia, la pendiente o la función de autocorrelación. El algoritmo cumple las exigencias de la AHA para la detección de ritmos desfibrilables y no-desfibrilables tanto en pacientes adultos como en pediátricos. El trabajo concluyó con el análisis del comportamiento del algoritmo con episodios reales de resucitación. En los ritmos que no contenían artefacto RCP se cumplieron las exigencias de la AHA. Posteriormente, se estudió la precisión del algoritmo durante las compresiones torácicas, antes y después de filtrar el artefacto RCP. Para suprimir el artefacto se utilizó un nuevo método desarrollado a lo largo de la tesis. Los ritmos desfibrilables se detectaron de forma precisa tras el filtrado, los no-desfibrilables sin embargo no.
Resumo:
En este artículo se plantea la resolución de un problema de Investigación Operativa utilizando PHPSimplex (herramienta online de resolución de problemas de optimización utilizando el método Simplex), Solver de Microsoft Excel y un prototipo híbrido que combina las teorías de los Algoritmos Genéticos con una técnica heurística de búsqueda local. La hibridación de estas dos técnicas es conocida como Algoritmo Memético. Este prototipo será capaz de resolver problemas de Optimización con función de maximización o minimización conocida, superando las restricciones que se planteen. Los tres métodos conseguirán buenos resultados ante problemas sencillos de Investigación Operativa, sin embargo, se propone otro problema en el cual el Algoritmo Memético y la herramienta Solver de Microsoft Excel, alcanzarán la solución óptima. La resolución del problema utilizando PHPSimplex resultará inviable. El objetivo, además de resolver el problema propuesto, es comparar cómo se comportan los tres métodos anteriormente citados ante el problema y cómo afrontan las dificultades que éste presenta. Además, este artículo pretende dar a conocer diferentes técnicas de apoyo a la toma de decisiones, con la intención de que se utilicen cada vez más en el entorno empresarial sustentando, de esta manera, las decisiones mediante la matemática o la Inteligencia Artificial y no basándose únicamente en la experiencia.
Resumo:
This project introduces an improvement of the vision capacity of the robot Robotino operating under ROS platform. A method for recognizing object class using binary features has been developed. The proposed method performs a binary classification of the descriptors of each training image to characterize the appearance of the object class. It presents the use of the binary descriptor based on the difference of gray intensity of the pixels in the image. It shows that binary features are suitable to represent object class in spite of the low resolution and the weak information concerning details of the object in the image. It also introduces the use of a boosting method (Adaboost) of feature selection al- lowing to eliminate redundancies and noise in order to improve the performance of the classifier. Finally, a kernel classifier SVM (Support Vector Machine) is trained with the available database and applied for predictions on new images. One possible future work is to establish a visual servo-control that is to say the reac- tion of the robot to the detection of the object.
Resumo:
El objetivo principal del trabajo es el diseño, utilizando técnicas de bajo consumo, del algoritmo de cifrado estándar AES (Advanced Encryption Standard) y su implementación sobre dispositivos reconfigurables, en particular sobre una FPGA.
Resumo:
En este proyecto se analiza y compara el comportamiento del algoritmo CTC diseñado por el grupo de investigación ALDAPA usando bases de datos muy desbalanceadas. En concreto se emplea un conjunto de bases de datos disponibles en el sitio web asociado al proyecto KEEL (http://sci2s.ugr.es/keel/index.php) y que han sido ya utilizadas con diferentes algoritmos diseñados para afrontar el problema de clases desbalanceadas (Class imbalance problem) en el siguiente trabajo: A. Fernandez, S. García, J. Luengo, E. Bernadó-Mansilla, F. Herrera, "Genetics-Based Machine Learning for Rule Induction: State of the Art, Taxonomy and Comparative Study". IEEE Transactions on Evolutionary Computation 14:6 (2010) 913-941, http://dx.doi.org/10.1109/TEVC.2009.2039140 Las bases de datos (incluidas las muestras del cross-validation), junto con los resultados obtenidos asociados a la experimentación de este trabajo se pueden encontrar en un sitio web creado a tal efecto: http://sci2s.ugr.es/gbml/. Esto hace que los resultados del CTC obtenidos con estas muestras sean directamente comparables con los obtenidos por todos los algoritmos obtenidos en este trabajo.
Resumo:
El proyecto desarrollará el algoritmo SSIDijkstra- Fast (una versión del SSI-Dijkstra) basándose en implementaciones del algoritmo existentes para versiones anteriores de UKB. UKB es una herramienta de desambiguación semántica basada en grafos. 2
Resumo:
[EU]Master bukaerako proiektu honetan, SNOMED CT sare semantikoa euskaratzeko aplikazioaren lehenengo urratsak azaltzen ditugu. Horretarako, SNOMED CTren sakoneko analisia egin dugu, eta bio-zientzien domeinuko euskarazko baliabideak aztertu ditugu. Aplikazioaren diseinu osoa egin dugu, euskarazko ordainak lortzeko algoritmo bat definituz. Algoritmo horren lehenengo urratsa izan da inplementatu duguna, hiztegi espezializatuen parekatzeari dagokiona, alegia. Aplikazioaren hastapen hauetan emaitza itxaropentsuak lortu ditugu.
Resumo:
222 p. : il.
Resumo:
pag. var.