816 resultados para análisis de datos
Resumo:
En los últimos años ha habido un gran aumento de fuentes de datos biomédicos. La aparición de nuevas técnicas de extracción de datos genómicos y generación de bases de datos que contienen esta información ha creado la necesidad de guardarla para poder acceder a ella y trabajar con los datos que esta contiene. La información contenida en las investigaciones del campo biomédico se guarda en bases de datos. Esto se debe a que las bases de datos permiten almacenar y manejar datos de una manera simple y rápida. Dentro de las bases de datos existen una gran variedad de formatos, como pueden ser bases de datos en Excel, CSV o RDF entre otros. Actualmente, estas investigaciones se basan en el análisis de datos, para a partir de ellos, buscar correlaciones que permitan inferir, por ejemplo, tratamientos nuevos o terapias más efectivas para una determinada enfermedad o dolencia. El volumen de datos que se maneja en ellas es muy grande y dispar, lo que hace que sea necesario el desarrollo de métodos automáticos de integración y homogeneización de los datos heterogéneos. El proyecto europeo p-medicine (FP7-ICT-2009-270089) tiene como objetivo asistir a los investigadores médicos, en este caso de investigaciones relacionadas con el cáncer, proveyéndoles con nuevas herramientas para el manejo de datos y generación de nuevo conocimiento a partir del análisis de los datos gestionados. La ingestión de datos en la plataforma de p-medicine, y el procesamiento de los mismos con los métodos proporcionados, buscan generar nuevos modelos para la toma de decisiones clínicas. Dentro de este proyecto existen diversas herramientas para integración de datos heterogéneos, diseño y gestión de ensayos clínicos, simulación y visualización de tumores y análisis estadístico de datos. Precisamente en el ámbito de la integración de datos heterogéneos surge la necesidad de añadir información externa al sistema proveniente de bases de datos públicas, así como relacionarla con la ya existente mediante técnicas de integración semántica. Para resolver esta necesidad se ha creado una herramienta, llamada Term Searcher, que permite hacer este proceso de una manera semiautomática. En el trabajo aquí expuesto se describe el desarrollo y los algoritmos creados para su correcto funcionamiento. Esta herramienta ofrece nuevas funcionalidades que no existían dentro del proyecto para la adición de nuevos datos provenientes de fuentes públicas y su integración semántica con datos privados.---ABSTRACT---Over the last few years, there has been a huge growth of biomedical data sources. The emergence of new techniques of genomic data generation and data base generation that contain this information, has created the need of storing it in order to access and work with its data. The information employed in the biomedical research field is stored in databases. This is due to the capability of databases to allow storing and managing data in a quick and simple way. Within databases there is a variety of formats, such as Excel, CSV or RDF. Currently, these biomedical investigations are based on data analysis, which lead to the discovery of correlations that allow inferring, for example, new treatments or more effective therapies for a specific disease or ailment. The volume of data handled in them is very large and dissimilar, which leads to the need of developing new methods for automatically integrating and homogenizing the heterogeneous data. The p-medicine (FP7-ICT-2009-270089) European project aims to assist medical researchers, in this case related to cancer research, providing them with new tools for managing and creating new knowledge from the analysis of the managed data. The ingestion of data into the platform and its subsequent processing with the provided tools aims to enable the generation of new models to assist in clinical decision support processes. Inside this project, there exist different tools related to areas such as the integration of heterogeneous data, the design and management of clinical trials, simulation and visualization of tumors and statistical data analysis. Particularly in the field of heterogeneous data integration, there is a need to add external information from public databases, and relate it to the existing ones through semantic integration methods. To solve this need a tool has been created: the term Searcher. This tool aims to make this process in a semiautomatic way. This work describes the development of this tool and the algorithms employed in its operation. This new tool provides new functionalities that did not exist inside the p-medicine project for adding new data from public databases and semantically integrate them with private data.
Resumo:
Objetivo: Este Trabajo Fin de Máster (TFM) analiza la importancia de la información poblacional en el análisis de datos de experimentos en IS. Por otro lado se intenta abordar un estudio sobre las posibles metodologías que se pueden usar para realizar dicho análisis. Contexto: El análisis se realiza sobre los resultados de un experimento llevado a cabo por el Grupo de Investigación de IS empírica de la UPM, cuyo objetivo es analizar el impacto que tiene el uso de TDD (Test Driven Development) sobre la calidad y la productividad del desarrollo software en comparación con el desarrollo tradicional TLD. Método de Investigación: Se analizan ocho variables demográficas frente a tres variables respuesta. Las metodologías o técnicas de análisis que se revisan son la Dicotomización, la Correlación de Pearson, la regresión lineal múltiple y la stepwise regression. Resultados: No se encuentran evidencias claras para afirmar que las variables demográficas influyen en los resultados de los experimentos. No obstante los resultados no son del todo concluyentes y queda abierta la investigación a realizarse con una muestra más amplia y representativa. En relación a la metodología de análisis aplicada, la dicotomización y la correlación de Pearson presentan deficiencias que se solventan con la regresión lineal múltiple y la stepwise regression. Conclusión: Resulta de vital importancia encontrar evidencias de la influencia de las características demográficas de los sujetos experimentales en el análisis de los datos experimentos en IS. Se ha encontrado un buen método para analizar esta influencia, pero falta replicar este análisis a más experimentos de IS para obtener resultados mejor fundados.---ABSTRACT---Objective: This Master's Thesis (TFM) discusses the importance of demographic data in the analysis of data from experiments in SE. On the other hand, it attempts to address a study of the possible methodologies that can be used to perform the analysis. Context: The analysis is performed on the results of an experiment conducted by the ESE Research Group of the UPM, aimed at analyzing the impact of the use of TDD (Test Driven Development) on quality and productivity, compared to traditional development TLD (Test Last Development). Research Method: Eight demographic variables were analyzed against three response variables. The methodologies and analysis techniques that are reviewed include dichotomization, Pearson correlation, multiple linear regression and stepwise regression. Results: There is not clear evidence to say that demographic variables influence the results of SE experiments. However the results are not conclusive, and are open to research with a broader and more representative sample. Regarding the applied analysis methodology, dichotomization and Pearson correlation have deficiencies that are solved with multiple linear regression and stepwise regression. Conclusion: It is very important to find evidence on the influence of demographic characteristics of subjects in the data analysis of SE experiments. We found a good way to analyze this influence, but is necessary replicate this analysis on more SE experiments to obtain sound results.
Resumo:
El transporte aéreo constituye un sector estratégico para el crecimiento económico de cualquier país. El sistema de gestión de tráfico aéreo ATM tiene como objetivo el movimiento seguro y eficiente de las aeronaves dentro del espacio aéreo y de los aeropuertos, siendo la seguridad, en la fase táctica, gestionada por el servicio de control de la circulación aérea. Mediante los procesos de control el tráfico aéreo es vigilado a través de sensores, regulado y guiado de forma organizada y segura. Es precisamente sobre la vigilancia donde se enfoca el contenido de la tesis, en el desarrollo de nuevos conceptos que proporcionen información de vigilancia de ‘bajo coste’ basados en las señales existentes proporcionadas por la infraestructura actual de radar secundario y por los sistemas de posicionamiento basados en satélite que utiliza la ADS-B. El conocimiento y acceso en tiempo real a las trayectorias de las aeronaves es un elemento de valor añadido no sólo para la provisión de los servicios de control de tránsito aéreo, sino para todos los actores del transporte aéreo o de la investigación, siendo uno de los elementos clave en el concepto operacional de los dos grandes proyectos tecnológicos, SESAR en Europa y NextGen en EE.UU.. En las últimas décadas el control de la circulación aérea en espacios aéreos de media y alta densidad de tráfico se ha basado en tecnologías complejas que requieren importantes infraestructuras como son el radar primario de vigilancia (PSR) y el radar secundario de vigilancia (SSR). La filosofía de los programas SESAR y NextGen siguiendo las directrices de la OACI es la de alejarse de las tecnologías basadas en tierra para evolucionar hacia nuevas tecnologías más dinámicas basadas en satélite como la ADS-B. Pero hasta que la implementación y operación de la ADS-B sea completa, existirá un período de transición que implica la coexistencia de aeronaves equipadas o no con ADS-B. El objetivo de la presente Tesis es determinar las metodologías y algoritmos más adecuados para poder hibridar las dos tecnologías descritas anteriormente, utilizando para ello un receptor de bajo coste con antena estática omnidireccional, que analice todas las señales presentes en el canal que comparten el SSR y ADS-B. Mediante esta hibridación se podrá obtener la posición de cualquier aeronave que transmita respuestas a interrogaciones SSR, en cualquiera de sus modos de trabajo, o directamente mensajes de posición ADS-B. Para desarrollar los algoritmos propuestos, además del hardware correspondiente, se han utilizado las aplicaciones LabVIEW para funciones de adquisición de datos reales, y el software MATLAB® para el desarrollo de algoritmos y análisis de datos. La validación de resultados se ha realizado mediante los propios mensajes de posición ADS-B y a través de las trazas radar proporcionadas por la entidad pública empresarial ENAIRE. La técnica desarrollada es autónoma, y no ha requerido de ninguna otra entrada que no sea la recepción omnidireccional de las señales. Sin embargo para la validación de resultados se ha utilizado información pública de las ubicaciones de la red de estaciones SSR desplegadas sobre territorio español y portugués y trazas radar. Los resultados obtenidos demuestran, que con técnicas basadas en superficies de situación definidas por los tiempos de llegada de las respuestas, es posible determinar con una precisión aceptable la posición de las estaciones SSR y la posición de cualquier aeronave que responda mediante el Modo A a éstas. ABSTRACT Air transport is a strategic sector for the economic growth of any country. The air traffic management system (ATM) aims at the safe and efficient movement of aircraft while operating within the airspace and airports, where safety, in the tactical phase, is managed by the air traffic control services. Through the air traffic control processes, aircraft are monitored by sensors, regulated and guided in an organized and safe manner. It is precisely on surveillance where this thesis is focused, developing new concepts that provide a 'low cost' surveillance information based on existing signals provided by currently secondary radar infrastructure and satellite-based positioning systems used by ADS-B. Having a deeper knowledge and a real-time access to the trajectories of the aircraft, is an element of added value not only for the provision of air traffic control services, but also for all air transport or research actors. This is one of the key elements in the operational concept proposed by the two large scale existing technological projects, SESAR in Europe and NextGen in the US. In recent decades, air traffic control in medium and high traffic density areas has been based on complex technologies requiring major infrastructures, such as the primary surveillance radar (PSR) and secondary surveillance radar (SSR). The philosophy of SESAR and NextGen programs, both following the guidelines of ICAO, is to move away from land-based technologies and evolving into some new and more dynamic satellite-based technologies such as ADS-B. Nevertheless, until the ADS-B implementation and operation is fully achieved, there will be a transitional period where aircraft with and without ADS-B equipment will have to coexist. The main objective of this thesis is to determine those methodologies and algorithms which are considered more appropriate to hybridize those two technologies, by using a low cost omnidirectional receiver, which analyzes all signals on the SSR and ADS-B shared channel. Through this hybridization, it is possible to obtain the position of any aircraft answering the SSR interrogations, in any of its modes of operation, or through the emission of ADS-B messages. To develop the proposed algorithms, LabVIEW application has been used for real-time data acquisition, as well as MATLAB software for algorithm development and data analysis, together with the corresponding hardware. The validation of results was performed using the ADS-B position messages and radar tracks provided by the Public Corporate Entity ENAIRE The developed technique is autonomous, and it does not require any other input other than the omnidirectional signal reception. However, for the validation of results, not only radar records have been used, but also public information regarding the position of SSR stations spread throughout the Spanish and Portuguese territory. The results show that using techniques based in the definition of positioning surfaces defined by the responses’ times of arrival, it is possible to determine with an acceptable level of accuracy both the position of the SSR stations as well as the position of any aircraft which transmits Mode A responses.
Resumo:
Hoy en día las redes sociales se han convertido en una parte importante en la vida de muchas personas. No sólo porque les permite mantener el contacto con familiares y amigos, sino porque también pueden mostrar al mundo sus opiniones, inquietudes, estilo de vida, habilidades, ideas… Una de las redes sociales que ha adquirido mayor importancia en los últimos años es Twitter. Actualmente cuenta con más de 320 millones de usuarios activos al mes. En ella los usuarios pueden publicar información y acceder a información publicada por otros usuarios. Se ha convertido en el medio de comunicación y difusión de noticias más rápido del mundo. Éstas son algunas de las razones por las que existe un gran interés por el análisis de datos de esta red social. En particular, el análisis de tendencias a través de redes de interacciones entre sus usuarios. Un ejemplo este tipo de redes en Twitter es una red de retweets sobre una etiqueta o hasthtag concreto. Estas redes se pueden representar como grafos, donde los nodos representan a los usuarios y las aristas los retweets entre usuarios. Aunque existen varias aplicaciones que permiten transformar y visualizar grafos a partir de un fichero, es difícil encontrar librerías de programación o aplicaciones que recopilen los datos de twitter, generen los grafos, los analicen y los exporten a ficheros concretos para poder visualizarlos con alguna aplicación. Este trabajo tiene como finalidad crear una librería en el lenguaje de programación Java que permita recopilar datos de twitter, transformar dichos datos en grafos, aplicar algoritmos para analizarlos, y exportar los grafos a ficheros con formato GEXF para que puedan ser visualizados con la aplicación Gephi. Esta librería incluye un programa para probar todas sus funcionalidades.---ABSTRACT---Today, social networks have become an important part in the life of many persons. Not only because they allow them to keep in contact with relatives and friends but also because through them they can express their opinions, interests, life- styles, hobbies or ideas to the wide world. Twitter is one of the social networks which in the last few years has achieved a particular importance. Right now, it counts with more that 320 millions of active monthly users who exchange, or have access, through it to a wide variety of informations. Twitter has become the fastest way in the world to communicate or diffuse news. This explains, among other reasons, the growing interest in the analysis of the data in this specific social network, particularly the analysis of trends through the web of interactions between its users. An example of this type of networks in Twitter is the network of retweets on a specific label or hashtag. These networks can be represented as graphs where nodes represent users and edges the retweets between users. Although there exist aldeady several applications that allow for the transformation and visualization in graphs of the contents of a data file, it is difficult to find libraries or applications to compile data from twitter, to generate graphs from them, to analyze them and to export them to a specific file that will allow its visualization with the use of some application. The purpose of this work is the creation of a library in Java language that will make posible to compile data from twitter, to transform them in grafos, to apply algorythms to analyze them and to export the graphos to files with a GEXF format, which will allow their visualization with a Gephi application. This library will include a program to test all its features.
Resumo:
El objetivo de estudio es conocer los tipos de saques utilizados, dependiendo el momento del set en el que se producen. Este estudio ha sido desarrollado durante el torneo Nestea Spanish Master de Vóley Playa disputado en Valencia en el año 2006. La muestra de estudio la componen 10 jugadoras que conforman 5 equipos con un total de 4 encuentros analizados que suman 331 saques analizados. El análisis de las videograbaciones se llevó a cabo con el software SportCode Pro v.8.5.2. Los saques se clasificaron dependiendo del momento en el que se produjeron, siendo la franja 1 (del punto 1 al 7), franja 2 (del punto 8 al 14) y franja 3 (del punto 15 al 21). El análisis de datos se llevo a cabo con el software SPSS v.19. La prueba Chi-cuadrado, estableció diferencias significativas entre los diferentes tipos de saques para la franja 1 y 3 (p<.05), pero no se establecieron diferencias significativas en la franja 2 para los tres tipos de saque utilizado (p>.05). Se experimenta una disminución en el uso del saque en potencia (SP) de la franja 1 (84.1%) con respecto al de la franja 3 (4.8%), mientras que el saque flotante (SF) aumenta de la franja 1 (13.5%) a la franja 3 (81%). Finalmente el saque flotante (SF) en salto aumentan de la franja 1 (2.4%) a la franja 2 (28%) y decrece de esta última a la franja 3 (14.3%).
Resumo:
En este trabajo se describe el proceso llevado a cabo para analizar numéricamente mediante el método de los elementos finitos (MEF) el comportamiento vibratorio del conjunto móvil de un altavoz dinámico de bobina con doble suspensión inferior y en ausencia de la superior. El estudio se centra en el rango de baja frecuencia. El calibrado del modelo se realiza en base a medidas experimentales de la frecuencia de resonancia y desplazamiento del diafragma. Se hace énfasis en la importancia de los factores de participación asociados a la fuerza de excitación y en los cambios que se producen en estos al introducir fuerzas no equilibradas. Así mismo, el análisis proporciona datos para decidir sobre la distancia entre suspensiones, su número óptimo de pliegues y la ubicación de las trencillas, siendo estos parámetros de gran interés en el diseño de este tipo de altavoces.
Resumo:
Programa de doctorado: Física, Matemáticas, Geología y Clima. La fecha de publicación es la fecha de lectura.
Resumo:
En la Escuela de Topografía, Catastro y Geodesia (ETCG) se ha implementado el Servicio de Datos GPS (SDG), el cual es un dominio en Internetque ofrece a los diferentes usuarios el acceso a información técnica y la posibilidad de descargar los archivos de datos generados diariamente por la estación GPS de operación continua de la ETCG. Los archivos disponibles en el SDG incluyen dos tratamientos previos a su publicación: un control de calidad al archivo rinex de observación con el programa Teqc y posteriormente la aplicación de la compresión de los tres archivos rinex (observación,navegación y meteorología) con el algoritmo de Hatanaka. Los dos procesos están totalmente automatizados y se ejecutan de forma diaria por medio de batch files. Con base en la puesta en operación del SDG, los archivos son procesados diariamente por uno de los centros de análisis de datos de SIRGAS y desde la semana 1501 GPS, los archivos de soluciones semanales generados por el DGFI de Alemania incorporan oficialmente los datos de la ETCG.
Resumo:
La presente investigación es resultado del trabajo final de la maestría, cursada en el Programa de Pós-graduación en Educación Ambiental de la Universidad Federal de Rio Grande (FURG), en la línea de Educación Ambiental no formal. La investigación tuvo como objetivo analizar la educación ambiental en la gestión ambiental pública, a partir de la práctica de inspectores y educadores ambientales de Nicaragua, a la luz de los presupuestos y aportes de la Educación Ambiental (E.A) en los procesos de Gestión Ambiental (G.A). Los procedimientos metodológicos se desarrollaron bajo un abordaje cualitativo. Para la colecta de datos se hizo uso de la investigación bibliográfica y del método de encuesta. La metodología de análisis de datos siguió los presupuestos teóricos del Análisis Textual Discursivo (ATD). Con el análisis se evidenció que la práctica educativa es predominantemente conservacionista y pragmática. Se identificaron elementos favorables, dentro de la política educativa, para fomentar procesos dentro de una perspectiva crítica, sin embargo son poco retomadas y evidentes dentro de los planes que guían las acciones de Educación Ambiental. La E.A. no es vista como área complementar de la G.A, pero sí como un instrumento, que se integra y aplica a los procesos de formación dentro de sus áreas de acción.
Resumo:
El evento cerebrovascular (ECV) constituye una carga clínica y económica para cada sistema de salud, generando la búsqueda de estrategias terapéuticas efectivas con alta rentabilidad. Se clasifican en 2 grupos; hemorrágicos e isquémicos. El 80 % son de tipo isquémico. La incidencia mundial es de 1.5 a 4 casos por cada 1,000 habitantes. En El Salvador para el año 2005 el ECV se ubicaba en la tercera causa de muerte hospitalaria. Actualmente el tratamiento del ECV se basa en 2 apartados: el tratamiento agudo y la prevención de recurrencias. Materiales y métodos: se realizó un estudio de decisión-análisis, de datos retrospectivos tomados de fuentes documentales de pacientes con ECV isquémicos ingresados de enero a diciembre de 2015 en el Hospital Nacional Rosales (HNR). Resultados: se incluyeron 79 expedientes. Obteniendo un costo promedio de $569.77 por día de estancia. El costo de estudios diagnósticos por paciente fue de $379.06 USD, con un promedio de estancia de 7.46 días por paciente sin complicaciones y de $11.12 con complicaciones asociadas y con una mortalidad de 13.85 %. Conclusión: el ECV isquémico manejado conservadoramente, sin la administración de trombolisis con Alteplasa, considerada el manejo médico con mejor evidencia (I A), genera altos costos hospitalarios en el HNR.
Resumo:
Hemos dedicado este texto al tratamiento descriptivo de los datos, esto es, al estudio de la primera rama de la estadística, la cual se conoce como estadística descriptiva. Se mostrara el tratamiento de variables tanto cualitativas como cuantitativas desde una perspectiva exploratoria para una y dos variables, y con el acompañamiento de la herramienta computacional R. El R es un software de distribución gratuita constituido por un conjunto de métodos estadísticos que están en continuo desarrollo. Contiene la mayoría de las técnicas estadísticas clásicas estándar así como las últimas metodologías en uso. El desarrollo del texto se presenta de la siguiente manera: el primer capítulo estará dedicado a los conceptos básicos, el capítulo dos estudiará el análisis de datos cualitativos, el tres realizará un estudio de los datos cuantitativos tanto para datos agrupados como sin agrupar, y finalmente el último capítulo hará una revisión bivariada de datos tanto cualitativos como cuantitativos.
Resumo:
La escuela debe preparar a los jóvenes para enfrentar con éxito la solución de los problemas de la vida práctica y la sociedad. Las nuevas transformaciones de la Secundaria Básica en Cuba están en correspondencia con ese propósito y para lograrlas, se imponen nuevos requerimientos en el orden metodológico y sobre todo un aprendizaje más activo. Dichas transformaciones incluyen para la enseñanza de la Matemática el trabajo con tres habilidades que se añaden a las que con anterioridad se propiciaban en Secundaria Básica. Estimar, esbozar y procesar datos, por lo que representa un reto para los profesores de matemática, la búsqueda de procedimientos adecuados que contribuyan a alcanzarlas. La presente tesis propone un grupo de técnicas participativas, que pueden ser utilizadas en el marco de las nuevas transformaciones de la secundaria básica, para favorecer el desarrollo de las mencionadas habilidades en la enseñanza de la matemática.
Resumo:
El presente estudio comprende una síntesis general de los conocimientos adquiridos en el desarrollo del Máster en Minería de Datos e Inteligencia de Negocios. Se ha intentado pasar por la mayoría de las áreas que en el mismo se tratan, prestando especial atención a la parte de análisis de datos propiamente dicha. La temática se ha centrado en el sector hotelero de la ciudad de Madrid. Se pretende hacer un ejercicio en profundidad de análisis de datos, seguido de un análisis de predicción del precio de los hoteles situados en esta ciudad, tomando como referencias distintas características de estos establecimientos, además de momentos temporales y otros matices. Otro punto a tratar en este estudio está basado en un análisis de la competencia hotelera, que tomará como base los resultados obtenidos en los primeros pasos de este proyecto. Así, se llega a la selección de un modelo óptimo de predicción, obtenido tras un proceso de ensayo-error de distintas técnicas predictivas, seguido de un proceso de elección. Así mismo, se consigue entender cómo se agrupan los distintos hoteles y cómo se sitúan en su mercado, atendiendo al comportamiento de los centros que forman su competencia.
Resumo:
El presente trabajo estudia los saques de esquina y tiros libres indirectos mediante la metodología observacional con el objetivo de conocer la importancia de las acciones a balón parado en el fútbol femenino de alto nivel. Se han registrado un total de 9 partidos disputados por el F.C. Barcelona Femenino en la temporada 2014 – 2015. Para realizar el análisis de datos elaboramos un formato de campo constituido por 12 criterios con una posterior valoración de la calidad del dato. Se llevará a cabo mediante el estudio de la incidencia de los saques de esquina y tiros libres indirectos, así como el grado de eficacia, teniendo presentes la lateralidad y la zona de finalización. Además de analizar la relación que existe entre los saques de esquina y los tiros libres indirectos con el tiempo y el vínculo de los goles analizados con el tiempo. Encontramos que el grado de eficacia en relación con la incidencia es muy bajo en ambos tipos de acciones, que se realizan con trayectorias cerradas y donde la zona de finalización, en la mayoría de acciones a balón parado, son enviadas al primer palo. Por otro lado, se produce un mayor número de saques de esquina en el último tercio de la primera parte y los dos últimos tercios de la segunda parte, obteniendo mayores diferencias en los valores de la segunda parte. En cambio, la mayor parte de los tiros libres indirectos se ejecutan en los últimos minutos de cada parte. Y, que los goles conseguidos con ambas acciones se han conseguido en los últimos minutos de las respectivas partes.
Resumo:
El ensayo se estableció en la Estación Experimental “La Compañía” San Marcos, departamento de Carazo, Nicaragua. Durante la época de postrera (Octubre – Diciem bre 2007) se estudiaron 25 variedades de frijol común ( Phaseolus vulgaris) con el objetivo de contribuir a un mejor conocimiento y utilización de la diversidad genética de frijol común presente en el país. Las líneas estudiadas provenían de diferentes regi ones de Nicaragua. El ensayo se estableció en un diseño Làtice simple 5 x 5, pero debido a su baja eficiencia al compararlo con un Bloque completo al azar (BCA) se decidió que los resultados presentados son los obtenidos del análisis de datos considerados provenientes de un BCA. Las variables que se evaluaron fueron; emergencia de la planta, longitud del tallo principal, ancho de cobertura, al momento de la cosecha se tomaron vainas por plantas, número de granos por vaina, peso de cien semillas y el rendimi ento del grano. El análisis estadístico hecho para las variables fue ANDEVA y separación de medias tukey al 5% de confianza. Respecto a las variables emergencia de la planta y longitud del tallo principal se observó que hubo diferencia significativa con ra ngos aproximados de 77 y 39 plantas para la emergencia y 68.5cm y 18.5cm respectivamente en el caso de longitu d del tallo principal. En las variables; ancho de cobertura, vainas por plantas, granos por vaina y el peso de cien semillas no se encontró difer e ncia significativa. En rendimiento de grano se encontró diferencia significativa donde el mayor rendimiento lo obtuvo la accesión 4460 (987.1kg ha - 1 ) seguido de la accesión 4462 (941.5kg ha - 1 ). La accesión que obtuvo el menor rendimiento fue la 4662 (280kg ha - 1 ). El promedio general de los valores de rendimiento de este ensayo no logro superar el promedio nacional (aproximadamente 800kg ha - 1 ), esto pudo ser justificado por las condiciones climáticas desfavorables y la presencia de plagas que aunque fueron c ontroladas afectaron de alguna manera al cultivo.