1000 resultados para evaluación de software
Resumo:
El diseño de los recursos educativos permite a los estudiantes modificar su proceso de aprendizaje. En particular, los recursos educativos on-line descargables han sido utilizados con éxito en la educación en ingeniería en los últimos años. Por lo general, estos recursos son gratuitos y accesibles desde la web. Además, son diseñados y desarrollados por profesores y usados por sus estudiantes. Pero, rara vez se desarrollan por los estudiantes con el fin de ser utilizados por otros estudiantes. En este artículo, profesores y estudiantes trabajan juntos para implementar recursos educativos de libre distribución, que puedan ser utilizados por los estudiantes para mejorar el proceso de aprendizaje de redes de computadores en los estudios de ingeniería. En particular, se virtualizan topologías de red para modelar redes LAN (Local Area Network) y MAN (Metropolitan Area Network) con el fin de simular el comportamiento de los enlaces y nodos cuando están interconectados con diferente diseño físico y lógico. Para ello, usando el software de libre distribución GNS3, y teniendo como base la configuración de la red del laboratorio L24 de la EPS, se construye un entorno virtual que simula las posibilidades reales de este laboratorio.
Resumo:
En este trabajo se estudia el uso de las nubes de puntos en 3D, es decir, un conjunto de puntos en un sistema de referencia cartesiano en R3, para la identificación y caracterización de las discontinuidades que afloran en un macizo rocoso y su aplicación al campo de la Mecánica de Rocas. Las nubes de puntos utilizadas se han adquirido mediante tres técnicas: sintéticas, 3D laser scanner y la técnica de fotogrametría digital Structure From Motion (SfM). El enfoque está orientado a la extracción y caracterización de familias de discontinuidades y su aplicación a la evaluación de la calidad de un talud rocoso mediante la clasificación geomecánica Slope Mass Rating (SMR). El contenido de la misma está dividido en tres bloques, como son: (1) metodología de extracción de discontinuidades y clasificación de la nube de puntos 3D; (2) análisis de espaciados normales en nubes de puntos 3D; y (3) análisis de la evaluación de la calidad geomecánica de taludes rocoso mediante la clasificación geomecánica SMR a partir de nubes de puntos 3D. La primera línea de investigación consiste en el estudio de las nubes de puntos 3D con la finalidad de extraer y caracterizar las discontinuidades planas presentes en la superficie de un macizo rocoso. En primer lugar, se ha recopilado información de las metodologías existentes y la disponibilidad de programas para su estudio. Esto motivó la decisión de investigar y diseñar un proceso de clasificación novedoso, que muestre todos los pasos para su programación e incluso ofreciendo el código programado a la comunidad científica bajo licencia GNU GPL. De esta forma, se ha diseñado una novedosa metodología y se ha programado un software que analiza nubes de puntos 3D de forma semi-automática, permitiendo al usuario interactuar con el proceso de clasificación. Dicho software se llama Discontinuity Set Extractor (DSE). El método se ha validado empleando nubes de puntos sintéticas y adquiridas con 3D laser scanner. En primer lugar, este código analiza la nube de puntos efectuando un test de coplanaridad para cada punto y sus vecinos próximos para, a continuación, calcular el vector normal de la superficie en el punto estudiado. En segundo lugar, se representan los polos de los vectores normales calculados en el paso previo en una falsilla estereográfica. A continuación se calcula la densidad de los polos y los polos con mayor densidad o polos principales. Estos indican las orientaciones de la superficie más representadas, y por tanto las familias de discontinuidades. En tercer lugar, se asigna a cada punto una familia en dependencia del ángulo formado por el vector normal del punto y el de la familia. En este punto el usuario puede visualizar la nube de puntos clasificada con las familias de discontinuidades que ha determinado para validar el resultado intermedio. En cuarto lugar, se realiza un análisis cluster en el que se determina la agrupación de puntos según planos para cada familia (clusters). A continuación, se filtran aquellos que no tengan un número de puntos suficiente y se determina la ecuación de cada plano. Finalmente, se exportan los resultados de la clasificación a un archivo de texto para su análisis y representación en otros programas. La segunda línea de investigación consiste en el estudio del espaciado entre discontinuidades planas que afloran en macizos rocosos a partir de nubes de puntos 3D. Se desarrolló una metodología de cálculo de espaciados a partir de nubes de puntos 3D previamente clasificadas con el fin de determinar las relaciones espaciales entre planos de cada familia y calcular el espaciado normal. El fundamento novedoso del método propuesto es determinar el espaciado normal de familia basándonos en los mismos principios que en campo, pero sin la restricción de las limitaciones espaciales, condiciones de inseguridad y dificultades inherentes al proceso. Se consideraron dos aspectos de las discontinuidades: su persistencia finita o infinita, siendo la primera el aspecto más novedoso de esta publicación. El desarrollo y aplicación del método a varios casos de estudio permitió determinar su ámbito de aplicación. La validación se llevó a cabo con nubes de puntos sintéticas y adquiridas con 3D laser scanner. La tercera línea de investigación consiste en el análisis de la aplicación de la información obtenida con nubes de puntos 3D a la evaluación de la calidad de un talud rocoso mediante la clasificación geomecánica SMR. El análisis se centró en la influencia del uso de orientaciones determinadas con distintas fuentes de información (datos de campo y técnicas de adquisición remota) en la determinación de los factores de ajuste y al valor del índice SMR. Los resultados de este análisis muestran que el uso de fuentes de información y técnicas ampliamente aceptadas pueden ocasionar cambios en la evaluación de la calidad del talud rocoso de hasta una clase geomecánica (es decir, 20 unidades). Asimismo, los análisis realizados han permitido constatar la validez del índice SMR para cartografiar zonas inestables de un talud. Los métodos y programas informáticos desarrollados suponen un importante avance científico para el uso de nubes de puntos 3D para: (1) el estudio y caracterización de las discontinuidades de los macizos rocosos y (2) su aplicación a la evaluación de la calidad de taludes en roca mediante las clasificaciones geomecánicas. Asimismo, las conclusiones obtenidas y los medios y métodos empleados en esta tesis doctoral podrán ser contrastadas y utilizados por otros investigadores, al estar disponibles en la web del autor bajo licencia GNU GPL.
Resumo:
El estudio de nueve genotipos avanzados de arroz y dos testigos comerciales se realizó en el centro experimental de arroz de ANAR en la finca Santa Rita en el Valle de Sébaco, con el objetivo de evaluar genotipos con mayor potencial de rendimiento y excelentes características agronómicas. Las parcelas fueron establecidas el 10 de Julio del 2014 y cosechadas del 12 al 14 de Noviembre El diseño experimental fue un BCA con tres repeticiones. Los datos obtenidos fueron analizados usando ANDEVA y prueba de TUKEY 5% de margen de error, atreves el software SAS 9.1. No hubo diferencias significativas para granos de diez panículas, peso de mil granos, granos llenos, grano yesoso, panículas por metro cuadrado, planta por metro cuadrado y rendimiento en granza. Hubo diferencias significativas en el porcentaje de fertilidad siendo la línea 109 estadísticamente superior, y las líneas 73, 248, 78, 71, y la variedad ANAR470 fue estadísticamente inferior. En la excersion de la panícula las líneas 18,90,ANAR97 fueron estadísticamente superiores al resto de materiales. En total de granos vanos los materiales ANAR470, 78, 71 fueron estadísticamente superiores y la línea 109 fue estadísticamente inferior con respecto amenos granos vanos en la muestra. Para grano excelso la línea 248 resultó ser superior estadísticamente y la Variedad ANAR97 resulto inferior estadísticamente. Para rendimiento de pilada de grano los materiales 248, 78 ,90, 73, A97, 18, 72, 71, A470, 2467 resultaron ser superiores estadísticamente con respecto a la línea 109. para la calidad relación entero/quebrado el material 248 resultó ser estadísticamente superior y la variedad ANAR97 resultó ser inferior estadísticamente, para desgrane la líneas 78, 90 resultaron ser superiores estadísticamente y el resto de materiales inferiores, para altura la línea 246 resultó ser superior y la línea 109 inferior con respecto a las demás, para tamaño de la panícula la línea 72 resultó ser superior estadísticamente en tamaño y la línea 248 resultó ser inferior estadísticamente con respecto a menor tamaño a las demás.
Resumo:
El modelo de evaluación bidimensional MEB en la educación superior, propuesto en este trabajo mide el conocimiento de estudiantes versus grado de certeza. El análisis de estas dos dimensiones permite al profesor determinar áreas de conocimiento a profundizar con sus estudiantes. La investigación fue descriptiva y correlacional, fueron aplicados métodos científico e inductivo. Las técnicas utilizadas fueron cuestionarios y análisis estadístico y recursos técnicos fueron: sistema de gestión de aprendizaje Moodle, software para análisis matemático MATLAB, EXCEL, laboratorios de la Facultad de Informática y Electrónica (FIE) de la Escuela Superior Politécnica de Chimborazo (ESPOCH), institución donde se llevó a cabo el estudio. El MEB propone la aplicación de cuestionarios de selección múltiple con el mecanismo CBM (Certainty based marking - Marcado basado en la certeza), sobre un aula virtual creada en el sistema Moodle. CBM permite medir por cada pregunta de un cuestionario las dimensiones conocimiento y certeza.
Resumo:
Se evalúan dos metodología de análisis de pérdidas técnicas de energía en las redes de distribución en media tensión, considerando las líneas de distribución MT y los elementos de transformación MT/BT, estos métodos consisten en la aplicación de la derivada para realizar la separación de bloques horarios con una alta, media y baja demanda en base al alimentador principal de la red de distribución y un segundo método que aplica la simulación de la demanda máxima en base al alimentador principal. Estas simulaciones se realizaron en el software WindMil, versión estudiantil
Resumo:
Independientemente de la metodología que se adopte en el desarrollo de software, se contemplan aquellas actividades gerenciales o de dirección del proyecto y las inherentes a las técnicas, propias del desarrollo del producto como tal, como los requerimientos demandados, análisis, diseño, implementación y pruebas o ensayos previos a su materialización -- El presente trabajo se deriva del interés por diseñar una metodología para la gestión de la fase de pruebas y ensayo, con base en el modelo de integración de las actividades contempladas en la guía del PMBOK, la cual es compatible con las funciones de dirección y actividades técnicas de otras metodologías, especialmente en su etapa de prueba; de allí la importancia que representa para los gerentes de proyectos obtener resultados satisfactorios en esta fase, por su impacto directo y significativo en el cumplimiento del tiempo y los costos estimados, lo que permite prevenir o mitigar, tiempos adicionales o sobrecostos por reproceso, evitando ser transferidos al cliente o asumidos por el fabricante de software -- Así mismo, asegurar una ejecución correcta de la fase de pruebas y ensayo, garantiza que el proyecto responda a los estándares de calidad, de acuerdo con sus indicadores de medición y la satisfacción del usuario
Resumo:
369 p.
Resumo:
Se realizó una investigación con el objetivo de establecer los cambios dentarios y evaluar la influencia de estos en los tejidos blandos comparando pacientes tratados con sistema Damon Q (N=23) y MBT (N=16). Se seleccionó una muestra de estudio conformada por 39 individuos siendo 28 mujeres y 11 varones de edades comprendidas entre 11 y 26 años. Se registraron radiografías cefálicas laterales digitales tomadas antes y después de concluido el tratamiento. Las inclinaciones de los incisivos superiores e inferiores así como las alteraciones del perfil facial fueron medidas mediante el Software de análisis cefalométrico Nemotec Dental. Para determinar los cambios en los tejidos duros y blandos se aplicó la prueba T-Student verificándose diferencias estadísticamente significativas (p < 0,05) para los dos sistemas en las variables: ángulo incisivo maxilar, mandibular, posición del labio inferior según el plano estético de Ricketts y el de Burstone. La correlación existente entre los cambios en la inclinación de los incisivos y la posición labial, se evaluó mediante el coeficiente de relación de Pearson encontrando para el sistema Damon una correlación entre la posición del incisivo superior y la del labio superior e inferior, la posición del incisivo inferior tuvo una correlación moderada con el labio inferior, con la técnica MBT se encontró una relación moderada entre la posición del incisivo superior y el labio inferior. Se concluyó que existen cambios postratamiento en la posición de los incisivos, así como protrusión labial inferior hallando relación entre la inclinación vestibular de los incisivos y el movimiento de los labios en ambas técnicas
Resumo:
El incremento permanente de las expectativas y necesidades relacionada con la informática, al igual que la actualización continua de los elementos que componen la tecnología de este campo, obliga a las entidades que la aplican a contar con controles, políticas y procedimientos que aseguren a la alta dirección que los recursos humanos, materiales y financieros involucrados, son protegidos adecuadamente y que se orienten a la rentabilidad y competitividad del negocio. La tecnología de informática, traducida en hardware, software, sistemas de información, investigación tecnológica, redes locales, bases de datos, ingeniería de software, telecomunicaciones, servicios y organización de informática es una herramienta estratégica que brinda rentabilidad y ventaja competitiva a los negocios frente a sus similares en el mercado; pero puede originar costos y desventajas competitivas si no es bien administrada y dirigida por el personal encargado. El desarrollo acelerado de la tecnología de computación y la significativa expansión del uso de computadoras para realizar tareas contables, han aumentado considerablemente la necesidad que tenemos de conocer con detalle los diversos sistemas de computación comúnmente en uso y los correspondientes procedimientos de control. Lo que resulta innegable es que la informática se convierte cada día en una herramienta permanente de los procesos principales de los negocios, en una fuerza estratégica, un aliado confiable y oportuno. Todo lo anterior es posible tenerlo en la empresa si se implantan controles y esquemas de seguridad requeridos para su aprovechamiento óptimo. Los contadores públicos en nuestro medio carecen de una guía práctica para la evaluación del control interno en informática que conlleve al desarrollo de la auditoria en forma eficiente, oportuna y profesional. La respuesta siempre ha existido: mediante evaluaciones oportunas y completas de dicha función por personal calificado (o sea, consultores externos, auditores en informática), o evaluaciones periódicas por el mismo personal de informática entre otras estrategias. El objetivo principal de la guía práctica para la evaluación del control interno en la auditoría en informática es el de brindar al auditor una idea de los aspectos de control que podrá encontrar en los diversos sistemas electrónicos de procesamiento de datos actualmente en uso. El trabajo está orientado a proporcionar una metodología específica para que sirva de guía al profesional de la contaduría pública en el desarrollo y diseño de la evaluación del control interno para auditoría de informática, así como para la captación de información en forma lógica, ordenada y comprensible para facilitar su uso posterior al Recomendar políticas y procedimientos que aseguren la calidad y eficiencia en cada una de las funciones de informática, así como los productos y servicios de esta área.
Resumo:
Actualmente existe una enorme cantidad de dispositivos y sistemas, como ordenadores portátiles y teléfonos móviles, que dependen de una batería para su funcionamiento. Como consecuencia, el hardware que incorporan debe ser energéticamente eficiente. La industria, para soportar este mercado, está desarrollando procesadores con el objetivo de reducir su consumo energético. Por ejemplo, ARM propone la arquitectura big.LITTLE como un procesador multi-núcleo heterogéneo: unos núcleos más rápidos para aplicaciones orientadas al rendimiento, y otros más lentos orientados a la eficiencia energética. Puesto que todos los núcleos acceden a la misma memoria física, las aplicaciones multi-hilo deben recurrir a algún tipo de sincronización para coordinar el acceso a los datos compartidos. La memoria transaccional (TM) es una solución optimista para ofrecer sincronización de hilos concurrentes en memoria compartida. En TM se permite el acceso en paralelo a los datos compartidos y, mediante un mecanismo de detección de conflictos, se puede garantizar la exclusión mútua. Para beneficiarse de las ventajas que ofrece TM, así como de las características de los procesadores heterogéneos de bajo consumo, es necesario que las soluciones de TM tengan en cuenta los requisitos energéticos y de rendimiento de las aplicaciones en consonancia con lo que ofrece el procesador. Como paso inicial, hay que comprender el rendimiento y consumo energético de las soluciones TM actuales. Para ello, hemos realizado una evaluación de consumo y rendimiento de una librería de TM software, TinySTM, sobre un procesador del tipo big.LITTLE. Los resultados revelan una buena escalabilidad en los núcleos de bajo consumo para la mayoría de las aplicaciones evaluadas. Sin embargo, la aplicación con mayores requerimientos de cómputo resulta ser energéticamente más eficiente en los núcleos orientados al rendimiento, a pesar de su mayor consumo.
Resumo:
TITULO DEL TRABAJO: Evaluación de las causas de los eventos adversos o incidentes que afectan la seguridad del paciente, en el hospital central de la policía de enero 2012 a diciembre 2013. OBJETIVO: Determinar y analizar la causa raíz de los principales factores de riesgo que afectan la seguridad del paciente que puedan ocasionar eventos adversos en la atención de los pacientes, con el uso de la teoría de restricciones TOC en el Hospital Central de la Policía HOCEN. MATERIALES Y METODO: Se realizó una investigación descriptiva de naturaleza mixta – cuantitativa de tipo correlacional, la población es la totalidad de pacientes atendidos en el hospital de la policía entre enero de 2012 a diciembre de 2013, en el cual se presentaron un total de 189 eventos adversos los cuales sirvieron de objeto a esta investigación, la recolección de datos se realizó por medio de tablas de Excel 2010, posterior a esto se exporto la información al software de IBM SPSS Statistics 19 donde se analiza la información arrojando datos descriptivos y tablas de frecuencia. Finalmente haciendo uso de la Teoría de restricciones TOC se identificó la causa raíz para la ocurrencia de eventos adversos y plantear una intervención estratégica que promueva un sistema efectivo de seguridad del paciente en pro de la búsqueda de la mejora continua. RESULTADOS: Se analizaron 189 eventos adversos, de los cuales 89 fueron reportados en el turno de la noche, seguido por el turno de la mañana con 57, el turno tarde con 27, 28 eventos que no registraron horario, el servicio con mayor ocurrencia es el de medicina interna con 25 eventos, y finalmente la caída de pacientes, lo relacionado con medicamentos, nutriciones y accesos vasculares son los eventos con mayor incidencia. CONCLUSIONES: Se pudo concluir que es necesario que los procesos de seguridad del paciente deben tener un lineamiento directo desde la dirección de la organización permitiendo que las mejoras sean de inmediata aplicación, también es importante generar en el personal una actitud de compromiso frente al proceso de mejora, hay que redefinir las políticas institucionales ya que se concluyó por medio de la teoría de restricciones TOC que el principal factor para la ocurrencia de eventos adversos son las multitareas que el personal tiene que realizar en el proceso de atención.
Resumo:
This article aimed at comparing the accuracy of linear measurement tools of different commercial software packages. Eight fully edentulous dry mandibles were selected for this study. Incisor, canine, premolar, first molar and second molar regions were selected. Cone beam computed tomography (CBCT) images were obtained with i-CAT Next Generation. Linear bone measurements were performed by one observer on the cross-sectional images using three different software packages: XoranCat®, OnDemand3D® and KDIS3D®, all able to assess DICOM images. In addition, 25% of the sample was reevaluated for the purpose of reproducibility. The mandibles were sectioned to obtain the gold standard for each region. Intraclass coefficients (ICC) were calculated to examine the agreement between the two periods of evaluation; the one-way analysis of variance performed with the post-hoc Dunnett test was used to compare each of the software-derived measurements with the gold standard. The ICC values were excellent for all software packages. The least difference between the software-derived measurements and the gold standard was obtained with the OnDemand3D and KDIS3D (-0.11 and -0.14 mm, respectively), and the greatest, with the XoranCAT (+0.25 mm). However, there was no statistical significant difference between the measurements obtained with the different software packages and the gold standard (p> 0.05). In conclusion, linear bone measurements were not influenced by the software package used to reconstruct the image from CBCT DICOM data.
Resumo:
OBJETIVO:Validar escala de insatisfação corporal para adolescentes. MÉTODOS: Participaram do estudo 386 adolescentes, de ambos os sexos, entre dez e 17 anos de idade, de uma escola particular de ensino fundamental e médio, de São Bernardo do Campo, SP, em 2006. Foram realizadas tradução e adaptação cultural da "Escala de Evaluación de Insatisfación Corporal para Adolescentes" para o português. Foram avaliadas consistência interna por meio do coeficiente alfa de Cronbach, análise fatorial pelo método Varimax e validade discriminante pelas diferenças entre médias de estado nutricional, utilizando-se o teste de Kruskal-Wallis. Na validação concorrente, calculou-se o coeficiente de correlação de Spearman entre a escala e o índice de massa corporal, a razão circunferência quadril e a circunferência da cintura. Para reprodutibilidade, foram utilizados o teste de Wilcoxon, o coeficiente de correlação intra-classe. RESULTADOS: A escala traduzida não apresentou discordâncias significativas com a original. A escala apresentou consistência interna satisfatória para todos os subgrupos estudados (fases inicial e intermediária de adolescência, ambos os sexos) e foi capaz de discriminar os adolescentes segundo o estado nutricional. Na análise concorrente, as três medidas corporais foram correlacionadas, exceto adolescentes do sexo masculino em fase inicial, e sua reprodutibilidade foi confirmada. CONCLUSÕES: A Escala de Avaliação da Insatisfação Corporal para Adolescentes está traduzida e adaptada para o português e apresentou resultados satisfatórios, sendo recomendada para avaliação do aspecto atitudinal da imagem corporal de adolescentes.
Resumo:
This paper presents SMarty, a variability management approach for UML-based software product lines (PL). SMarty is supported by a UML profile, the SMartyProfile, and a process for managing variabilities, the SMartyProcess. SMartyProfile aims at representing variabilities, variation points, and variants in UML models by applying a set of stereotypes. SMartyProcess consists of a set of activities that is systematically executed to trace, identify, and control variabilities in a PL based on SMarty. It also identifies variability implementation mechanisms and analyzes specific product configurations. In addition, a more comprehensive application of SMarty is presented using SEI's Arcade Game Maker PL. An evaluation of SMarty and related work are discussed.
Resumo:
Thousands of Free and Open Source Software Projects (FSP) were, and continually are, created on the Internet. This scenario increases the number of opportunities to collaborate to the same extent that it promotes competition for users and contributors, who can guide projects to superior levels, unachievable by founders alone. Thus, given that the main goal of FSP founders is to improve their projects by means of collaboration, the importance to understand and manage the capacity of attracting users and contributors to the project is established. To support researchers and founders in this challenge, the concept of attractiveness is introduced in this paper, which develops a theoretical-managerial toolkit about the causes, indicators and consequences of attractiveness, enabling its strategic management.