926 resultados para Algoritmo de Prim
Resumo:
Áreas de produção agropecuária podem ser mapeadas com o uso de receptores GPS, pela medida da posição geográfica de pontos. A coleta de pontos a campo geralmente não segue uma ordem que permita o traçado direto das áreas. O trabalho descreve um algoritmo desenvolvido para ordenar os pontos medidos, usando apenas a identificação da área e setor a qual cada ponto pertence, permitindo criar um mapa das áreas de produção e suas subdivisões (setores de produção contíguos). O algoritmo foi implementado na forma de um programa em linguagem C, sendo testado e validado em mais de 600 propriedades vitícolas.
Resumo:
Apresentamos uma versão inicial da solução em desenvolvimento para estimação dos efeitos desejados através do modelo animal univariado, utilizando duas abordagens distintas para a obtenção do melhor estimador linear não viesado (BLUP) dos parâmetros do modelo.
Resumo:
The genetic algorithm is a very efficient tool to solve optimization problems. On the other hand, the classroom assignation in any education center, particularly those that does not have enough quantity of classrooms for the courseʼs demand converts it in an optimization problem. In the Department of Computer Science (Universidad de Costa Rica) this work is carried out manually every six months. Besides, at least two persons of the department are dedicated full time to this labor for one week or more. The present article describes an automatic solution that not only reduces the response time to seconds but it also finds an optimal solution in the majority of the cases. In addition gives flexibility in using the program when the information involved with classroom assignation has to be updated. The interface is simple an easy to use.
Resumo:
Tove Jansson (1914--2001) was a Finnish illustrator, author, artist, caricaturist and comic artist. She is best known for her Moomin Books, written in Swedish, which she illustrated herself, and published between 1945 and 1977. My study focuses on the interweaving of images and words in Jansson s picturebooks, novels and short stories situated in the fantasy world of Moomin Valley. In particular, it concentrates on Jansson s development of a special kind of aesthetics of movement and stasis, based upon both illustration and text. The conventions of picturebook art and illustration are significant to both Jansson s visual art and her writing, and she was acutely conscious of them. My analysis of Jansson s work begins by discussing her first published picturebooks and less familiar illustrations (before she began her Moomin books) and I then proceed to discuss her three Moomin picturebooks, The Book about Moomin, Mymble and Little My; Who Will Comfort Toffle?, and The Dangerous Journey. The discussion moves from images to words and from words to images: Barthes s (1982) concept of anchoring and, in particular, what he calls relaying , form a point of reading and viewing Moomin texts and illustrations in a complementary relation, in which the message s unity occurs on a higher level: that of the story, the anecdote, the diegesis . The eight illustrated Moomin novels and one collection of short stories are analysed in a similar manner, taking into account the academic discourse about picturebooks which was developed in the last decade of the 20th century and beginning of the 21st century by, among others, scholars such as Nodelman, Rhedin, Doonan, Thiele, Stephens, Lewis, Nikolajeva and Scott. In her Moomin books, Jansson uses a wide variety of narrative and illustrative styles which are complementary to each other. Each book is different and unique in its own way, but a certain development or progression of mood and representation can be seen when assessing the series as a whole. Jansson s early stories are happy and adventurous but her later Moomin novels, beginning from Moominland Midwinter, focus more on the interiority of the characters, placing them in difficult situations which approximate social reality. This orientation is also reflected in the representation of movement and space. The books which were published first include more obviously descriptive passages, exemplifying the tradition of literary pictorialism. Whereas in Jansson s later work, the space develops into something that is alive which can have an enduring effect on the characters personalities and behaviour. This study shows how the idea of an image a dynamic image -- forms a holistic foundation for Jansson s imagination and work. The idea of central perspective, or frame, for instance, provided inspiration for whole stories or in the way that she developed her characters, as in the case of the Fillyjonk, who is a complex female figure, simultaneously frantic and prim. The idea of movement is central to the narrative art of picturebooks and illustrated texts, particularly in relation to the way that action is depicted. Jansson, however, also develops a specific choreography of characters in which poses and postures signify action, feelings and relationships. Here, I use two ideas from modern dance, contraction and release (Graham), to characterise the language of movement which is evident in Jansson s words and images. In Jansson s final Moomin novels and short stories, the idea of space becomes more and more dynamic and closely linked with characterisation. My study also examines a number of Jansson s early sketches for her Moomin novels, in which movement is performed much more dramatically than in those illustrations which appeared in the last novels to be published.
Resumo:
Understanding the dendrimer-drug interaction is of great importance to design and optimize the dendrimer-based drug delivery system. Using atomistic molecular dynamics (MD) simulations, we have analyzed the release pattern of four ligands (two soluble drugs, namely, salicylic acid (Sal), L-alanine (Ala), and two insoluble drugs, namely, phenylbutazone (Pbz) and primidone (Prim)), which were initially encapsulated inside the ethylenediamine (EDA) cored polyamidoamine (PAMAM) dendrimer using the docking method. We have computed the potential of mean force (PMF) variation with generation 5 (G5)-PAMAM dendrimer complexed with drug molecules using umbrella sampling. From our calculated PMF values, we observe that soluble drugs (Sal and Ala) have lower energy barriers than insoluble drugs (Pbz and Prim). The order of ease of release pattern for these drugs from G5 protonated PAMAM dendrimer was found to be Ala > Sal > Prim > Pbz. In the case of insoluble drugs (Prim and Pbz), because of larger size, we observe much nonpolar contribution, and thus, their larger energy barriers can be reasoned to van der Waals contribution. From the hydrogen bonding analysis of the four PAMAM drug complexes under study, we found intermolecular hydrogen bonding to show less significant contribution to the free energy barrier. Another interesting feature appears while calculating the PMF profile of G5NP (nonprotonated)-PAMAM Pbz and G5NP (nonprotonated)-PAMAM-Sal complex. The PMF was found to be less when the drug is bound to nonprotonated dendrimer compared to the protonated dendrimer. Our results suggest that encapsulation of the drug molecule into the host PAMAM dendrimer should be carried out at higher pH values (near pH 10). When such complex enters the human body, the pH is around 7.4 and at that physiological pH, the dendrimer holds the drug tightly. Hence the release of drug can occur at a controlled rate into the bloodstream. Thus, our findings provide a microscopic picture of the encapsulation and controlled release of drugs in the case of dendrimer-based host-guest systems.
Resumo:
Resumen: Michael Behe y William Dembski son dos de los líderes de la Teoría del Diseño Inteligente, una propuesta surgida como respuesta a los modelos evolucionistas y anti-finalistas prevalentes en ciertos ambientes académicos e intelectuales, especialmente del mundo anglosajón. Las especulaciones de Behe descansan en el concepto de “sistema de complejidad irreductible”, entendido como un conjunto ordenado de partes cuya funcionalidad depende estrictamente de su indemnidad estructural, y que su origen resulta, por tanto, refractario a explicaciones gradualistas. Estos sistemas, según Behe, están presentes en los vivientes, lo que permitiría inferir que ellos no son el producto de mecanismos ciegos y azarosos, sino el resultado de un diseño. Dembski, por su parte, ha abordado el problema desde una perspectiva más cuantitativa, desarrollando un algoritmo probabilístico conocido como “filtro explicatorio”, que permitiría, según el autor, inferir científicamente la presencia de un diseño, tanto en entidades artificiales como naturales. Trascendiendo las descalificaciones del neodarwinismo, examinamos la propuesta de estos autores desde los fundamentos filosóficos de la escuela tomista. A nuestro parecer, hay en el trabajo de estos autores algunas intuiciones valiosas, las que sin embargo suelen pasar desapercibidas por la escasa formalidad en que vienen presentadas, y por la aproximación eminentemente mecanicista y artefactual con que ambos enfrentan la cuestión. Es precisamente a la explicitación de tales intuiciones a las que se dirige el artículo.
Resumo:
Se presenta la metodología de presupuestos parciales como método de análisis económico de experimentos agrícolas y se analizan algunas inconsistencias encontradas en la misma. Tales inconsistencias incluyen: la implementación del análisis cuando el ANAVA no presenta diferencias estadísticas entre tratamientos, y la ejecución del mismo sin considerar la naturaleza de los tratamientos. Otras inconsistencias adicionales, son la conducción de los análisis sin usar precios de campo, llegar a conclusiones sobre el tratamiento más rentable sin usar ninguna tasa núnima de retomo, generar una recomendación a partir de un solo experimento, analizar los datos sin corregir los rendimientos experimentales, y estimar los costos a partir de la información del experimento. En este escrito no se busca reinventar el enfoque de presupuestos parciales, en su lugar se busca reenseñar su uso. Para ello, inicialmente se hace una exposición de cuando se debe usar el enfoque, luego a manera de algoritmo, se enumeran los pasos que se deben seguir para hacer un análisis económico siguiendo este método. Se continua con una discusión sobre la relación entre presupuestos parciales y optimización de funciones de producción. Finalmente, se presentan un caso de análisis
Resumo:
El Manual de Prácticas de Laboratorio tiene como objetivo principal que los estudiantes tengan de forma directa los contenidos prácticos y de procedimiento para el diagnóstico de las enfermedades más frecuentes en las especies en explotación. Se reúne la información básica y necesarios a adquirir; el algoritmo para alcanzar la compleja tarea del aislamiento e identificación de los agentes etiológicos causantes de las enfermedades mediante el empleo de métodos y técnicas que son el resultado de las experiencias de personas que dedicaron toda su vida a la preservación de la salud pública y veterinaria. Como proceso instructivo es de interés que los estudiantes adquieran un método de estudio y de organización en el proceso de aprendizaje. Es propósito redactar mejor y además se adquieran hábitos y habilidades con una actividad independiente en una interrelación constante con la teoría. Es muy importante tener un sentido amplio, generalizador, de constante búsqueda de soluciones, así también propiciar un pensamiento de carácter experimental y cientifico de forma activa hacia la comprobación en la práctica diaria todo lo aprendido. Los conocimientos adquiridos han de propiciar el interés por profundizar y conocer más hacia la búsqueda de soluciones por lo cual, ha de tener en cuenta el trabajo bibliográfico y el vínculo necesario con otras disciplinas de la especialidad. El autor y todos los que me precedieron y aportaron les damos los instrumentos para que se preparen como profesionales capaces de cumplir con sus futuras responsabilidades y compromisos sociales.
Resumo:
[ES] Cada vez más el deporte-espectáculo se está abriendo paso como objeto de estudio en los centros de investigación avanzada, como consecuencia de la necesidad de gestionar los altos presupuestos de las entidades deportivas.
Resumo:
131 p.: graf.
Resumo:
[ES]La fibrilación ventricular (VF) es el primer ritmo registrado en el 40\,\% de las muertes súbitas por paro cardiorrespiratorio extrahospitalario (PCRE). El único tratamiento eficaz para la FV es la desfibrilación mediante una descarga eléctrica. Fuera del hospital, la descarga se administra mediante un desfibrilador externo automático (DEA), que previamente analiza el electrocardiograma (ECG) del paciente y comprueba si presenta un ritmo desfibrilable. La supervivencia en un caso de PCRE depende fundamentalmente de dos factores: la desfibrilación temprana y la resucitación cardiopulmonar (RCP) temprana, que prolonga la FV y por lo tanto la oportunidad de desfibrilación. Para un correcto análisis del ritmo cardiaco es necesario interrumpir la RCP, ya que, debido a las compresiones torácicas, la RCP introduce artefactos en el ECG. Desafortunadamente, la interrupción de la RCP afecta negativamente al éxito en la desfibrilación. En 2003 se aprobó el uso del DEA en pacientes entre 1 y 8 años. Los DEA, que originalmente se diseñaron para pacientes adultos, deben discriminar de forma precisa las arritmias pediátricas para que su uso en niños sea seguro. Varios DEAs se han adaptado para uso pediátrico, bien demostrando la precisión de los algoritmos para adultos con arritmias pediátricas, o bien mediante algoritmos específicos para arritmias pediátricas. Esta tesis presenta un nuevo algoritmo DEA diseñado conjuntamente para pacientes adultos y pediátricos. El algoritmo se ha probado exhaustivamente en bases de datos acordes a los requisitos de la American Heart Association (AHA), y en registros de resucitación con y sin artefacto RCP. El trabajo comenzó con una larga fase experimental en la que se recopilaron y clasificaron retrospectivamente un total de 1090 ritmos pediátricos. Además, se revisó una base de arritmias de adultos y se añadieron 928 nuevos ritmos de adultos. La base de datos final contiene 2782 registros, 1270 se usaron para diseñar el algoritmo y 1512 para validarlo. A continuación, se diseñó un nuevo algoritmo DEA compuesto de cuatro subalgoritmos. Estos subalgoritmos están basados en un conjunto de nuevos parámetros para la detección de arritmias, calculados en diversos dominios de la señal, como el tiempo, la frecuencia, la pendiente o la función de autocorrelación. El algoritmo cumple las exigencias de la AHA para la detección de ritmos desfibrilables y no-desfibrilables tanto en pacientes adultos como en pediátricos. El trabajo concluyó con el análisis del comportamiento del algoritmo con episodios reales de resucitación. En los ritmos que no contenían artefacto RCP se cumplieron las exigencias de la AHA. Posteriormente, se estudió la precisión del algoritmo durante las compresiones torácicas, antes y después de filtrar el artefacto RCP. Para suprimir el artefacto se utilizó un nuevo método desarrollado a lo largo de la tesis. Los ritmos desfibrilables se detectaron de forma precisa tras el filtrado, los no-desfibrilables sin embargo no.
Resumo:
En este artículo se plantea la resolución de un problema de Investigación Operativa utilizando PHPSimplex (herramienta online de resolución de problemas de optimización utilizando el método Simplex), Solver de Microsoft Excel y un prototipo híbrido que combina las teorías de los Algoritmos Genéticos con una técnica heurística de búsqueda local. La hibridación de estas dos técnicas es conocida como Algoritmo Memético. Este prototipo será capaz de resolver problemas de Optimización con función de maximización o minimización conocida, superando las restricciones que se planteen. Los tres métodos conseguirán buenos resultados ante problemas sencillos de Investigación Operativa, sin embargo, se propone otro problema en el cual el Algoritmo Memético y la herramienta Solver de Microsoft Excel, alcanzarán la solución óptima. La resolución del problema utilizando PHPSimplex resultará inviable. El objetivo, además de resolver el problema propuesto, es comparar cómo se comportan los tres métodos anteriormente citados ante el problema y cómo afrontan las dificultades que éste presenta. Además, este artículo pretende dar a conocer diferentes técnicas de apoyo a la toma de decisiones, con la intención de que se utilicen cada vez más en el entorno empresarial sustentando, de esta manera, las decisiones mediante la matemática o la Inteligencia Artificial y no basándose únicamente en la experiencia.
Resumo:
El objetivo principal del trabajo es el diseño, utilizando técnicas de bajo consumo, del algoritmo de cifrado estándar AES (Advanced Encryption Standard) y su implementación sobre dispositivos reconfigurables, en particular sobre una FPGA.
Resumo:
En este proyecto se analiza y compara el comportamiento del algoritmo CTC diseñado por el grupo de investigación ALDAPA usando bases de datos muy desbalanceadas. En concreto se emplea un conjunto de bases de datos disponibles en el sitio web asociado al proyecto KEEL (http://sci2s.ugr.es/keel/index.php) y que han sido ya utilizadas con diferentes algoritmos diseñados para afrontar el problema de clases desbalanceadas (Class imbalance problem) en el siguiente trabajo: A. Fernandez, S. García, J. Luengo, E. Bernadó-Mansilla, F. Herrera, "Genetics-Based Machine Learning for Rule Induction: State of the Art, Taxonomy and Comparative Study". IEEE Transactions on Evolutionary Computation 14:6 (2010) 913-941, http://dx.doi.org/10.1109/TEVC.2009.2039140 Las bases de datos (incluidas las muestras del cross-validation), junto con los resultados obtenidos asociados a la experimentación de este trabajo se pueden encontrar en un sitio web creado a tal efecto: http://sci2s.ugr.es/gbml/. Esto hace que los resultados del CTC obtenidos con estas muestras sean directamente comparables con los obtenidos por todos los algoritmos obtenidos en este trabajo.
Resumo:
El proyecto desarrollará el algoritmo SSIDijkstra- Fast (una versión del SSI-Dijkstra) basándose en implementaciones del algoritmo existentes para versiones anteriores de UKB. UKB es una herramienta de desambiguación semántica basada en grafos. 2