748 resultados para COMPUTACIÓN
Resumo:
En el campo de la medicina clínica es crucial poder determinar la seguridad y la eficacia de los fármacos actuales y además acelerar el descubrimiento de nuevos compuestos activos. Para ello se llevan a cabo ensayos de laboratorio, que son métodos muy costosos y que requieren mucho tiempo. Sin embargo, la bioinformática puede facilitar enormemente la investigación clínica para los fines mencionados, ya que proporciona la predicción de la toxicidad de los fármacos y su actividad en enfermedades nuevas, así como la evolución de los compuestos activos descubiertos en ensayos clínicos. Esto se puede lograr gracias a la disponibilidad de herramientas de bioinformática y métodos de cribado virtual por ordenador (CV) que permitan probar todas las hipótesis necesarias antes de realizar los ensayos clínicos, tales como el docking estructural, mediante el programa BINDSURF. Sin embargo, la precisión de la mayoría de los métodos de CV se ve muy restringida a causa de las limitaciones presentes en las funciones de afinidad o scoring que describen las interacciones biomoleculares, e incluso hoy en día estas incertidumbres no se conocen completamente. En este trabajo abordamos este problema, proponiendo un nuevo enfoque en el que las redes neuronales se entrenan con información relativa a bases de datos de compuestos conocidos (proteínas diana y fármacos), y se aprovecha después el método para incrementar la precisión de las predicciones de afinidad del método de CV BINDSURF.
Resumo:
We present and evaluate a novel supervised recurrent neural network architecture, the SARASOM, based on the associative self-organizing map. The performance of the SARASOM is evaluated and compared with the Elman network as well as with a hidden Markov model (HMM) in a number of prediction tasks using sequences of letters, including some experiments with a reduced lexicon of 15 words. The results were very encouraging with the SARASOM learning better and performing with better accuracy than both the Elman network and the HMM.
Resumo:
This article describes the Robot Vision challenge, a competition that evaluates solutions for the visual place classification problem. Since its origin, this challenge has been proposed as a common benchmark where worldwide proposals are measured using a common overall score. Each new edition of the competition introduced novelties, both for the type of input data and subobjectives of the challenge. All the techniques used by the participants have been gathered up and published to make it accessible for future developments. The legacy of the Robot Vision challenge includes data sets, benchmarking techniques, and a wide experience in the place classification research that is reflected in this article.
Resumo:
In this article we describe a semantic localization dataset for indoor environments named ViDRILO. The dataset provides five sequences of frames acquired with a mobile robot in two similar office buildings under different lighting conditions. Each frame consists of a point cloud representation of the scene and a perspective image. The frames in the dataset are annotated with the semantic category of the scene, but also with the presence or absence of a list of predefined objects appearing in the scene. In addition to the frames and annotations, the dataset is distributed with a set of tools for its use in both place classification and object recognition tasks. The large number of labeled frames in conjunction with the annotation scheme make this dataset different from existing ones. The ViDRILO dataset is released for use as a benchmark for different problems such as multimodal place classification and object recognition, 3D reconstruction or point cloud data compression.
Resumo:
There is an increasing concern to reduce the cost and overheads during the development of reliable systems. Selective protection of most critical parts of the systems represents a viable solution to obtain a high level of reliability at a fraction of the cost. In particular to design a selective fault mitigation strategy for processor-based systems, it is mandatory to identify and prioritize the most vulnerable registers in the register file as best candidates to be protected (hardened). This paper presents an application-based metric to estimate the criticality of each register from the microprocessor register file in microprocessor-based systems. The proposed metric relies on the combination of three different criteria based on common features of executed applications. The applicability and accuracy of our proposal have been evaluated in a set of applications running in different microprocessors. Results show a significant improvement in accuracy compared to previous approaches and regardless of the underlying architecture.
Resumo:
En respuesta a los nuevos desafíos sociales e intelectuales de la UANL, la FCFM define su propia misión: “Apoyar el desarrollo de la Sociedad Neoleonesa y del País, mediante la formación integral de profesionistas de las ciencias matemática, física y computación, y a través de la aportación directa de su saber científico y tecnológico.” La demanda de parte de la sociedad de contar con una eficiente enseñanza-aprendizaje de la geometría sumada a la evidencia en clase, tanto de las deficiencias en los alumnos, como las limitaciones en los Software Didácticos Comercializados que presentan ocultamientos y propician “errores de interpretación”, constituyó el conflicto cognitivo y elemento detonante que propició la formación de grupos interdisciplinarios de estudiantes , con liderazgo democrático y grados de cohesividad, para incursionar en la aplicación de sus conocimientos elaborando materiales didácticos para el nivel superior y básico, enfrentando la “visión fragmentada” de ciencia y tecnología en las comunidades epistémicas del sistema educativo. En el presente trabajo se describe la labor realizada por el equipo bajo la conducción del docente enmarcando la misma como una tecnología, conformada a su vez por subtecnologías.
Resumo:
La heurística como disciplina científica es relativamente joven. En el mundo se han realizado múltiples investigaciones sobre el uso de los elementos heurísticos, lo que está indisolublemente ligado con la resolución de problemas. En 1998, Castro, N. elaboró un modelo de actuación didáctica para el trabajo con la instrucción heurística con los estudiantes del ISPH de la carrera Matemática-Computación, el les ha propiciado una mejor preparación en los componentes académico, investigativo y laboral. En la enseñanza de la Matemática los elementos heurísticos son de gran aplicación y se pueden vincular con todas sus situaciones típicas. Es por ello que este trabajo tiene como objetivo mostrar como se puede emplear la instrucción heurística en la elaboración o socialización de la sucesión de indicaciones con carácter algorítmico dentro de la disciplina Geometría.
Resumo:
El objetivo de este trabajo es mostrar algunos aspectos a considerar en el diseño de materiales didácticos basados en la utilización de las Nuevas Tecnologías de la Información y las Comunicaciones. Estos materiales soportados en formato electrónico serán utilizados para llevar a cabo la fase no presencial del curso de Matemática I y II para Ingenieros Informáticos en la modalidad semipresencial, que se iniciará en el mes de septiembre del 2002 en el Instituto Superior Politécnico “José Antonio Echeverría” de la ciudad de La Habana, Cuba, con una matrícula aproximada de mas de 600 alumnos, los cuales son maestros de computación en la enseñanza primaria.
Resumo:
En la formación de un profesional tiene una especial significación su preparación matemática, por las potencialidades que el aprendizaje de esta ciencia brinda en el desarrollo de habilidades relacionadas con el pensamiento lógico entre otras. Un importante papel en esta dirección corresponde al desarrollo de las habilidad para obtener y demostrar proposiciones matemáticas, siendo la geometría una de las disciplinas que más puede aportar al respecto. En esta investigación se presenta una propuesta para el desarrollo de estas habilidades a través del tratamiento de un tema de la Estereometría. En la misma se abordan los fundamentos teóricos que la sustentan, los que incluyen tendencias actuales de la educación matemática. Asimismo se brindan recomendaciones para el tratamiento de las proposiciones que se estudian en el tema, basadas en la utilización de métodos activos de apropiación del conocimiento y se plantean ejemplos que ilustran cómo ponerlas en práctica. Por último, se describe la aplicación de la metodología propuesta a un grupo de estudiantes de segundo año de la carrera de Matemática-Computación de la Universidad Pedagógica “Enrique José Varona” y los resultados alcanzados por ellos en cada una de las acciones que integran la habilidad antes mencionada.
Resumo:
La enseñanza de la Matemática confiere gran importancia al estudio de las construcciones geométricas porque persiguen objetivos educativos relacionados con la limpieza y la exactitud, además del desarrollo de capacidades en los estudiantes. Las construcciones geométricas se relacionan también con la aplicación de teoremas y definiciones, especialmente cuando se hace su fundamentación. Es objetivo del presente trabajo presentar algunas experiencias de las autoras relacionadas con la comprensión de las construcciones geométricas que se abordan en la asignatura Geometría II del 1er Año de estudio de la carrera profesoral de Matemática– Computación.
Resumo:
El incremento permanente de las expectativas y necesidades relacionada con la informática, al igual que la actualización continua de los elementos que componen la tecnología de este campo, obliga a las entidades que la aplican a contar con controles, políticas y procedimientos que aseguren a la alta dirección que los recursos humanos, materiales y financieros involucrados, son protegidos adecuadamente y que se orienten a la rentabilidad y competitividad del negocio. La tecnología de informática, traducida en hardware, software, sistemas de información, investigación tecnológica, redes locales, bases de datos, ingeniería de software, telecomunicaciones, servicios y organización de informática es una herramienta estratégica que brinda rentabilidad y ventaja competitiva a los negocios frente a sus similares en el mercado; pero puede originar costos y desventajas competitivas si no es bien administrada y dirigida por el personal encargado. El desarrollo acelerado de la tecnología de computación y la significativa expansión del uso de computadoras para realizar tareas contables, han aumentado considerablemente la necesidad que tenemos de conocer con detalle los diversos sistemas de computación comúnmente en uso y los correspondientes procedimientos de control. Lo que resulta innegable es que la informática se convierte cada día en una herramienta permanente de los procesos principales de los negocios, en una fuerza estratégica, un aliado confiable y oportuno. Todo lo anterior es posible tenerlo en la empresa si se implantan controles y esquemas de seguridad requeridos para su aprovechamiento óptimo. Los contadores públicos en nuestro medio carecen de una guía práctica para la evaluación del control interno en informática que conlleve al desarrollo de la auditoria en forma eficiente, oportuna y profesional. La respuesta siempre ha existido: mediante evaluaciones oportunas y completas de dicha función por personal calificado (o sea, consultores externos, auditores en informática), o evaluaciones periódicas por el mismo personal de informática entre otras estrategias. El objetivo principal de la guía práctica para la evaluación del control interno en la auditoría en informática es el de brindar al auditor una idea de los aspectos de control que podrá encontrar en los diversos sistemas electrónicos de procesamiento de datos actualmente en uso. El trabajo está orientado a proporcionar una metodología específica para que sirva de guía al profesional de la contaduría pública en el desarrollo y diseño de la evaluación del control interno para auditoría de informática, así como para la captación de información en forma lógica, ordenada y comprensible para facilitar su uso posterior al Recomendar políticas y procedimientos que aseguren la calidad y eficiencia en cada una de las funciones de informática, así como los productos y servicios de esta área.
Resumo:
Hardware vendors make an important effort creating low-power CPUs that keep battery duration and durability above acceptable levels. In order to achieve this goal and provide good performance-energy for a wide variety of applications, ARM designed the big.LITTLE architecture. This heterogeneous multi-core architecture features two different types of cores: big cores oriented to performance and little cores, slower and aimed to save energy consumption. As all the cores have access to the same memory, multi-threaded applications must resort to some mutual exclusion mechanism to coordinate the access to shared data by the concurrent threads. Transactional Memory (TM) represents an optimistic approach for shared-memory synchronization. To take full advantage of the features offered by software TM, but also benefit from the characteristics of the heterogeneous big.LITTLE architectures, our focus is to propose TM solutions that take into account the power/performance requirements of the application and what it is offered by the architecture. In order to understand the current state-of-the-art and obtain useful information for future power-aware software TM solutions, we have performed an analysis of a popular TM library running on top of an ARM big.LITTLE processor. Experiments show, in general, better scalability for the LITTLE cores for most of the applications except for one, which requires the computing performance that the big cores offer.
Resumo:
Las líneas de productos software son familias de productos que están íntimamente relacionados entre sí, normalmente formados por combinaciones de un conjunto de características software. Generalmente no es factible testar todos los productos de la familia, ya que el número de productos es muy elevado debido a la explosión combinatoria de características. Por este motivo, se han propuesto criterios de cobertura que pretenden probar al menos todas las interacciones entre características sin necesidad de probar todos los productos, por ejemplo todos los pares de características (emph{pairwise coverage}). Además, es deseable testar primero los productos compuestos por un conjunto de características prioritarias. Este problema es conocido como emph{Prioritized Pairwise Test Data Generation}. En este trabajo proponemos una técnica basada en programación lineal entera para generar este conjunto de pruebas priorizado. Nuestro estudio revela que la propuesta basada en programación lineal entera consigue mejores resultados estadísticamente tanto en calidad como en tiempo de computación con respecto a las técnicas existentes para este problema.