948 resultados para DISEÑO DE BASES DE DATOS
Resumo:
Se presenta un proyecto de software que transforma registros bibliográficos de una base de datos estándar en entidades de los distintos grupos del modelo conceptual FRBR, obras, expresiones, manifestaciones, ítems, personas, instituciones y temas, así como muchas de las relaciones entre ellas. El software convierte dinámicamente los registros originales, que corresponden a las manifestaciones e ítems de FRBR, en un árbol que parte de la obra para luego ir desplegando las restantes entidades y relaciones. En la implementación presente se ha trabajado con la base de datos de la Biblioteca Central de la Facultad de Humanidades y Ciencias de la Educación de la UNLP, pero por la modularidad con que está planteado, el software puede implementarse partiendo de cualquier otra estructura. Para poder realizar este proceso, el software construye listas de autoridades para obras, expresiones, manifestaciones, personas, instituciones y temas. En la etapa actual los datos utilizados para construir las entidades y relaciones surgen exclusivamente de la información contenida en la base de datos original. Esto implica que muchos datos no podrán ser obtenidos pues no estaban contemplados en el diseño original, por lo que se plantea una segunda etapa en la cual se recolecte esa información en bases de datos remotas. Se muestra, además de las ventajas que tiene para el usuario una visualización "ferberizada", las implicancias que tiene una estructura tal para los estudios bibliométricos.
Resumo:
Se presenta un proyecto de software que transforma registros bibliográficos de una base de datos estándar en entidades de los distintos grupos del modelo conceptual FRBR, obras, expresiones, manifestaciones, ítems, personas, instituciones y temas, así como muchas de las relaciones entre ellas. El software convierte dinámicamente los registros originales, que corresponden a las manifestaciones e ítems de FRBR, en un árbol que parte de la obra para luego ir desplegando las restantes entidades y relaciones. En la implementación presente se ha trabajado con la base de datos de la Biblioteca Central de la Facultad de Humanidades y Ciencias de la Educación de la UNLP, pero por la modularidad con que está planteado, el software puede implementarse partiendo de cualquier otra estructura. Para poder realizar este proceso, el software construye listas de autoridades para obras, expresiones, manifestaciones, personas, instituciones y temas. En la etapa actual los datos utilizados para construir las entidades y relaciones surgen exclusivamente de la información contenida en la base de datos original. Esto implica que muchos datos no podrán ser obtenidos pues no estaban contemplados en el diseño original, por lo que se plantea una segunda etapa en la cual se recolecte esa información en bases de datos remotas. Se muestra, además de las ventajas que tiene para el usuario una visualización "ferberizada", las implicancias que tiene una estructura tal para los estudios bibliométricos.
Resumo:
La presente tesis doctoral describe los desarrollos realizados, y finalmente materializados en patentes con registro de la propiedad intelectual, para la integración de las nuevas tecnologías de documentación fotogramétrica y las bases de datos de los barredores láser terrestres, en los procesos de elaboración, redacción y ejecución de proyectos de restauración y rehabilitación arquitectónicos. Los avances tecnológicos aparecidos en control métrico, junto con las técnicas de imagen digital y los desarrollos fotogramétricos, pueden aportar mejoras significativas en el proceso proyectual y permiten aplicar nuevos procedimientos de extracción de datos para generar de forma sencilla, bajo el control directo y supervisión de los responsables del proyecto, la información métrica y documental más adecuada. Se establecen como principios, y por tanto como base para el diseño de dicha herramienta, que los desarrollos aparecidos sí han producido el uso extendido del sistema CAD (como instrumento de dibujo) así como el uso de la imagen digital como herramienta de documentación. La herramienta a diseñar se fundamenta por tanto en la imagen digital (imágenes digitales, imágenes rectificadas, ortofotografías, estéreo- modelos, estereo- ortofotografías) así como su integración en autocad para un tratamiento interactivo. En la aplicación de la fotogrametría a la disciplina arquitectónica, se considera de interés estructurar aplicaciones con carácter integrador que, con mayores capacidades de interactuación y a partir de información veraz y rigurosa, permitan completar o elaborar documentos de interés proyectual, ABSTRACT This doctoral thesis explains the developments carried out, and finally patented with intellectual property rights, for the integration of the new photogrammetric technology documentation and terrestrial scanner databases in the preparation, documentation and implementation processes of restoration projects and architectural renovation. The technological advances in metric control, as well as the digital image techniques and photogrammetric developments, can together bring a significant improvement to the projecting process, and, under the direct control and supervision of those in charge of the project, can allow new data extraction processes to be applied in order to easily generate the most appropriate metric information and documentation. The principles and, therefore, the basis for the design of this tool are that the developments have indeed produced the widespread use of the CAD system (as a drawing instrument) and the use of digital images as a documentation tool. The tool to be designed is therefore based on digital images (rectify images, orthophotos, stereomodels, stereo-orthophotos) as well as its integration in Autocad for interactive processing. In the application of photogrammetry to the architectural discipline, what interests us is to structure applications of an integrative nature which, with a greater capacity for interaction and from accurate and thorough information, enable the completion or elaboration of documents that are of interest to the project.
Resumo:
Se plantea la posibilidad de elaborar un modelo de "Esquema Director" para el desarrollo de un Sistema de Información Gubernamental automatizado para países en vías de desarrollo. Así mismo,debido a la diversidad de países en vías de desarrollo se establece la necesidad de su estratificación con el fin de definir modelos para grupos de países con características similares. Con este propósito se selecciona la región de Centroamérica y El Caribe, estratificándose los países del área en dos grupos principales. Se seleccionó uno de ellos para la definición del modelo; los países que forman este grupo son: Costa Rica, El Salvador, Guatemala, Honduras, Nicaragua, Panamá y la República Dominicana. A continuación se realiza una investigación sobre cada país. Se procedió al análisis comparativo de los mismos, en especial en los aspectos relativos a su estructura gubernamental. Después se analiza qué informaciones necesitan los gobernantes para la toma de decisiones políticas; además de las características generales del escenario modelo hacia el cual se sugiere marchar como país de la región. También se analiza brevemente el desarrollo de la Informática, su situación actual, su incidencia sobre la sociedad y su relación con los Sistemas de Información Gubernamental. A continuación, y con todas las informaciones anteriores, se explica el procedimiento metodológico utilizado para obtener el Esquema Director Tipo que se propone como modelo a seguir por los países en cuestión. Finalmente, este modelo es usado en forma experimental en un caso particular: La República Dominicana. En general, estos países mostraron tener características comunes. En cuanto a la estructura gubernamental mostraron una gransimilitud lo que permitió desarrollar un modelo de Esquema Director Tipo ya que todos tienen una organización gubernamental basada en los tres poderes tradicionales de un gobierno republicano, democrático y representativo: el Legislativo, el Ejecutivo y el Judicial. La falta de organismos responsables de la Informática y la falta de políticas en este campo, condicionó el diseño del Esquema Director Tipo a la preparación previa de un Metamodelo compuesto de tres partes: la primera parte para definir las políticas que sobre Información deben regir en el país, así como el modelo de Sistema de Información Nacional; la segunda parte para definir las políticas informáticas tanto a nivel nacional como a nivel gubernamental,así como el modelo de Sistema de Información Gubernamental,y,en la tercera parte, el procedimiento metodológico para obtener el modelo de Esquema Director Tipo. A partir del Metamodelo y en base a las características de los gobiernos de los países seleccionados, se define el modelo de Esquema Director Tipo cuya principal característica es la de crear un Banco Central de Información Gubernamental que administre un conjunto de bases de datos integrado. Este Modelo sirve de base para definir el Esquema Director particular para la República Dominicana, cuya principal característica es la de desarrollar un plan piloto, en base a la definición de índices socio-económicos que permita a las autoridades gubernamentales conocer los avances logrados dentro del proceso para alcanzar un modelo social "próximo". Finalmente se recomienda el uso del Metamodelo, para el desarrollo de Esquemas Directores Tipos, para grupos de países en vías de desarrollo que manifiesten características similares
Resumo:
En los últimos años ha habido un gran aumento de fuentes de datos biomédicos. La aparición de nuevas técnicas de extracción de datos genómicos y generación de bases de datos que contienen esta información ha creado la necesidad de guardarla para poder acceder a ella y trabajar con los datos que esta contiene. La información contenida en las investigaciones del campo biomédico se guarda en bases de datos. Esto se debe a que las bases de datos permiten almacenar y manejar datos de una manera simple y rápida. Dentro de las bases de datos existen una gran variedad de formatos, como pueden ser bases de datos en Excel, CSV o RDF entre otros. Actualmente, estas investigaciones se basan en el análisis de datos, para a partir de ellos, buscar correlaciones que permitan inferir, por ejemplo, tratamientos nuevos o terapias más efectivas para una determinada enfermedad o dolencia. El volumen de datos que se maneja en ellas es muy grande y dispar, lo que hace que sea necesario el desarrollo de métodos automáticos de integración y homogeneización de los datos heterogéneos. El proyecto europeo p-medicine (FP7-ICT-2009-270089) tiene como objetivo asistir a los investigadores médicos, en este caso de investigaciones relacionadas con el cáncer, proveyéndoles con nuevas herramientas para el manejo de datos y generación de nuevo conocimiento a partir del análisis de los datos gestionados. La ingestión de datos en la plataforma de p-medicine, y el procesamiento de los mismos con los métodos proporcionados, buscan generar nuevos modelos para la toma de decisiones clínicas. Dentro de este proyecto existen diversas herramientas para integración de datos heterogéneos, diseño y gestión de ensayos clínicos, simulación y visualización de tumores y análisis estadístico de datos. Precisamente en el ámbito de la integración de datos heterogéneos surge la necesidad de añadir información externa al sistema proveniente de bases de datos públicas, así como relacionarla con la ya existente mediante técnicas de integración semántica. Para resolver esta necesidad se ha creado una herramienta, llamada Term Searcher, que permite hacer este proceso de una manera semiautomática. En el trabajo aquí expuesto se describe el desarrollo y los algoritmos creados para su correcto funcionamiento. Esta herramienta ofrece nuevas funcionalidades que no existían dentro del proyecto para la adición de nuevos datos provenientes de fuentes públicas y su integración semántica con datos privados.---ABSTRACT---Over the last few years, there has been a huge growth of biomedical data sources. The emergence of new techniques of genomic data generation and data base generation that contain this information, has created the need of storing it in order to access and work with its data. The information employed in the biomedical research field is stored in databases. This is due to the capability of databases to allow storing and managing data in a quick and simple way. Within databases there is a variety of formats, such as Excel, CSV or RDF. Currently, these biomedical investigations are based on data analysis, which lead to the discovery of correlations that allow inferring, for example, new treatments or more effective therapies for a specific disease or ailment. The volume of data handled in them is very large and dissimilar, which leads to the need of developing new methods for automatically integrating and homogenizing the heterogeneous data. The p-medicine (FP7-ICT-2009-270089) European project aims to assist medical researchers, in this case related to cancer research, providing them with new tools for managing and creating new knowledge from the analysis of the managed data. The ingestion of data into the platform and its subsequent processing with the provided tools aims to enable the generation of new models to assist in clinical decision support processes. Inside this project, there exist different tools related to areas such as the integration of heterogeneous data, the design and management of clinical trials, simulation and visualization of tumors and statistical data analysis. Particularly in the field of heterogeneous data integration, there is a need to add external information from public databases, and relate it to the existing ones through semantic integration methods. To solve this need a tool has been created: the term Searcher. This tool aims to make this process in a semiautomatic way. This work describes the development of this tool and the algorithms employed in its operation. This new tool provides new functionalities that did not exist inside the p-medicine project for adding new data from public databases and semantically integrate them with private data.
Resumo:
A la hora de afrontar un proyecto de investigación, no basta con una vigilancia tradicional del entorno. Ya que debido a lo cambiante del mundo, a la globalización, a lo rápido que se desarrollan nuevas tecnologías y productos es preciso realizar un proceso sistemático que permita a las organizaciones o empresas anticiparse a los cambios tecnológicos. En este contexto, el diseño de metodologías basadas en la Vigilancia Tecnológica (VT) permite gestionar la actividad innovadora de organizaciones o empresas facilitando el proceso de generación de ideas para el desarrollo de productos o servicios. Es por ello que en este Proyecto de Fin de Grado se ha diseñado una estrategia para aplicar metodologías de Vigilancia Tecnológica aplicadas a un proyecto de I+D que estudia las Interfaces Naturales de Usuario (NUI). Para ello se ha partido de la metodología de trabajo basada en el proceso de Vigilancia Tecnológica e Inteligencia Competitiva del proyecto CETISME, identificando claramente cada una de las fases que lo componen: identificación de objetivos, selección de las fuentes de información, búsqueda y almacenamiento de la información, análisis de la información y por último validación de la información que concluye con la creación de informes de Vigilancia Tecnológica. Por lo tanto, para cada una de las fases que componen lo que comúnmente se llama el ciclo de la vigilancia, se ha explicado en primer lugar en qué consisten, que estrategias a seguir son las más adecuadas así como la manera de llevarlas a cabo, y por último, si fuera necesario, qué herramientas (desde bases de datos a software) son necesarias o son de utilidad para llevar a cabo el proceso y optimizarlo. De esta manera, como se verá a lo largo de este documento, la aplicación de dicha metodología permitirá a las organizaciones o empresas obtener situaciones ventajosas a la hora de innovar, captar oportunidades o detectar amenazas, identificar competidores o alianzas potenciales, entre otros. ABSTRACT. When taking over a research project, a traditional surveillance of the environment is not enough. Mainly due to the changing the world, to the globalization, to how fast new technologies and products are developed, is necessary to make a systematic process that enables organizations or companies anticipate to technological changes. In this context, the design of methodologies based on the Technology Watch (TW) allows managing the innovative activity of organizations or companies facilitating the process of generating ideas for products or services development. For this reason, in this Thesis a strategy for applying Technological Watch methodologies applied to a R&D project studying Natural User Interfaces (NUI) has been designed. To achieve this goal, the starting point was the CETISME project methodologies, which are based on the Technology Watch and the Competitive Intelligence process, clearly identifying each of the phases that compose it: identification of objectives, selection of the information sources, storage, search and analysis of the information, and finally validating the information that concludes with the creation of Technological Watch reports. Therefore, for each of the phases composing what is commonly known as the monitoring cycle, it has been explained in first place what they consist of, what strategies are more adequate as well as how they should be implemented, and finally, if necessary, what tools (from databases to software) are needed or are useful for managing the process and optimize it. Thus, as discussed throughout this document, the application of said methodology will allow organizations or companies to obtain advantageous situations when it comes to innovate, catch opportunities or detect threats, to identify competitors or potential alliances, among others.
Resumo:
El objetivo fundamental del PFC desarrollado es el diseño y construcción de una aplicación web, que sirva de soporte a la gestión académica de asignaturas, basadas en un tipo de evaluación mixto, parte teórica y parte práctica, cada una formada por varías notas correspondientes a las diferentes pruebas realizadas, cada una de las cuales posee una ponderación. Permitiendo a los profesores de las asignaturas gestionar alumnos, profesores, grupos de teoría, grupos de prácticas, notas, fórmulas de ponderación, histórico y generar fichero con formato moodle. Además pueden realizar consultas, generar listados, consultar datos estadísticos tanto del curso académico actual, como de un curso académico previo almacenado en el histórico. La base de datos empleada es de tipo relacional y se ha utilizado el sistema gestor de bases de datos (DBMS) MySQLWorkbench 5.2 CE, impuesto por el cliente. Para la implementación de la aplicación se ha usado los lenguajes Java, JavaScript y HTML; por tratarse todos ellos de lenguajes de libre distribución. ABSTRACT The main objective of PFC developed is the design and construction of a web application that serves as support to academic subjects management, based on a type of mixed evaluation, theoretical and practical part, each consisting of several notes to different tests, each of which has a weighting. Allowing subject teachers manage students, teachers, group theory, practice groups, notes, weighting formulas, historical and generate Moodle file format. They can perform queries, generate lists, consult statistics of the current academic year or a previous academic year stored in the history. The database used is relational and has been used MySQLWorkbench CE 5.2 database management system (DBMS), imposed by the client. To implement the application has used the Java, HTML and JavaScript languages; because it is all free distribution languages.
Resumo:
Este trabajo fin de grado forma parte del proyecto Embarazo Saludable que la Fundación EHAS desarrolla con la colaboración de TulaSalud en los departamentos de Alta Verapaz y San Marcos en Guatemala. El proyecto Embarazo Saludable tiene como principal objetivo reducir la mortalidad materna de mujeres gestantes en zonas rurales de Guatemala. Para conseguirlo se han centrado los esfuerzos en mejorar los controles sanitarios en comunidades con pocos recursos y alejadas del centro de salud. En este documento se presenta el estudio e implementación de un mecanismo de sincronización en el Sistema de Información en Salud empleado en el proyecto que está basado en OpenMRS. Este mecanismo de sincronización debe permitir el intercambio de información entre los ordenadores de las brigadas itinerantes de atención y un servidor central. Para empezar, se analizaron los datos recogidos en las citas médicas y se especificaron que tipo de información se quiere conservar en la base de datos y una vez identificada la información a sincronizar, con el objetivo de sincronizar las bases de datos de todas las brigadas, se implementaron los cambios necesarios en el módulo de sincronización de OpenMRS. Además se estudiaron y definieron los roles de usuario dentro de la plataforma y se creó un sistema de alertas entre el enfermero que realiza las consultas y el ginecólogo que supervisa a los enfermeros. Una vez modificado el módulo de sincronización se realizaron pruebas del sistema y se probó el correcto funcionamiento de la sincronización de: imágenes, texto, números, usuarios y formularios entre dispositivos. Estas pruebas se realizaron primero en local y luego en remoto con el servidor central. El trabajo fin de grado se empezó en Madrid hasta alcanzar una versión inicial del programa y posteriormente en Cobán se realizaron tareas de mejora e implementación, así como capacitaciones dirigidas al personal técnico encargado de la plataforma. El uso de OpenMRS como Sistema de Información Sanitaria ha supuesto una importante mejora en la calidad del seguimiento de mujeres gestantes. La posibilidad de sincronizar información entre brigadas permite a todos los facilitadores (enfermeros) disponer de la información de consultas a todas las mujeres gestantes de una comunidad. No obstante, el éxito del proyecto dependerá del mantenimiento y actualización de la plataforma por parte de los técnicos capacitados.
Resumo:
Se plantea al alumnado el análisis de la huella de carbono que tiene, en la actualidad, la asignatura práctica Experimentación en Química Inorgánica, con el objetivo de que busquen las posibilidades de sustitución y/o reducción de reactivos tóxicos y peligrosos en las prácticas de laboratorio que se imparten. Previamente, en base a dicho análisis, la red ha redactado las directrices que guiarán al alumno en sus búsquedas en bases de datos y su proposición de sustitución razonada de reactivos. Cada grupo de alumnos que trabaja en un proyecto particular de “Síntesis y caracterización de sustancias inorgánicas”, redacta un protocolo de actuación para eliminar/reducir el uso de reactivos peligrosos/contaminantes en su proyecto. Como colofón, se redacta un protocolo global para hacer más sostenible el proceso de enseñanza/aprendizaje de esta asignatura práctica. Además de trabajar el contenido específico de la asignatura, con esta metodología de aprendizaje, se pretende aumentar la capacidad del alumnado del Grado en Química para ser autónomo a la hora de proponer actuaciones fundamentadas que conduzcan a preservar el medio ambiente en su futuro ejercicio de la profesión de graduado en química.
Resumo:
En la actualidad, las organizaciones de la industria de la moda en la región de Caldas presentan dificultades en gestión estratégica y gestión de innovación, y el conjugar estas dos variables se hace necesario para que puedan lograr la competitividad que les permita permanecer y crecer en el mercado local y global. Es por esto que en este proyecto el propósito es identificar las estrategias de gestión de innovación en las empresas del sector textil, confección, diseño y moda de la Región Centro Sur de Caldas y así saber qué impide que esta industria tenga bajos índices de competitividad. Los instrumentos metodológicos aplicados fueron validados por panel de expertos en innovación y estrategia organizacional, fueron tratados estadísticamente mediante el software SPSS y fueron aplicados a las empresas pertenecientes a las bases de datos disponibles en la ciudad de Manizales. Se encuentra que más del 70% de las empresas es informal en la aplicación de actividades de innovación, para un 40% las directrices organizacionales son informales y para el 30% son inexistentes y finalmente, los procesos estratégicos un 70% los tienen definidos informalmente y para un 20% son inexistentes.
Resumo:
La Metabolómica es una sub-área de la biología de sistemas que tiene como objetivo el estudio de las moléculas de pequeño tamaño (normalmente <1000 Da) llamadas metabolitos. Los metabolitos son el resultado de las reacciones químicas que concurren en una célula y que revelan información acerca del estado del organismo en el que se encuentran. La parte computacional de un análisis metabolómico comienza con la identifcación de los compuestos químicos (metabolitos) correspondientes con las masas obtenidas mediante espectrografía de masas, y se lleva a cabo mediante búsquedas manuales en múltiples bases de datos de metabolitos. El proceso de identificación requiere del análisis de cada una de las masas detectadas en el espectrómetro junto a datos que ofrece la espectrometría, como es la abundancia de cada una de las masas o los tiempos de retención. Este proceso es tedioso y consume una gran cantidad de tiempo del químico analítico, pues debe buscarse la información base de datos a base de datos e ir cruzando los datos de cada una de las búsquedas hasta obtener una lista de resultados formada por los metabolitos presentes en la muestra a analizar. El objetivo de este proyecto es desarrollar una herramienta web que simplifque y automatice la búsqueda e identifcación de metabolitos. Para ello se ha construido una herramienta capaz de integrar y buscar automáticamente información de los metabolitos en múltiples bases de datos metabolómicas. Esto ha requerido unifcar los compuestos entre las diferentes bases de datos cuando había sufciente información para asegurar que los compuestos provenientes de varias fuentes de datos eran realmente el mismo. Además, en este proceso de búsqueda se tiene en cuenta conocimiento sobre las reacciones químicas que pueden alterar la masa del metabolito registrada por el espectrómetro de masas, como la formación de aductos y multímeros.
Resumo:
Objetivo: Identificar estructuras estandarizadas para la formulación de preguntas clínicas en el marco de la práctica basada en la evidencia. Método: Se realizó una revisión de la literatura. La búsqueda bibliográfica se efectuó en las bases de datos MEDLINE, CINAHL, EMBASE y LILACS, y en el buscador académico Google Scholar. Se efectuaron estrategias de búsqueda sensibles y acordes a cada base de datos. Límites de búsqueda: intervalo de tiempo (enero de 1995 a abril de 2015), idioma (artículos en inglés). Se usaron palabras clave libres y descriptores del Medical Subject Headings (MeSH) pertinentes: evidence based practice, question, formulation, well-built question, framework. Resultados: Se encontraron 10 manuscritos que aportaron el diseño original de estructuras para la formulación de preguntas clínicas en el ámbito de la práctica basada en la evidencia. El modelo PICO es la estructura más conocida y comúnmente utilizada en investigación cuantitativa y de él derivan los modelos PICOT, PICOTT, PICOS, PIPOH, PECORD, PESICO. En el campo de la gestión sanitaria la estructura ECLIPSE se erige para formulación de preguntas relacionadas con la gestión. Por último, para la búsqueda de evidencias cualitativas se han configurado los modelos SPICE y SPIDER adecuando sus componentes al fenómeno cualitativo. Conclusiones: Estos modelos estandarizadas se comportan como un instrumento idóneo para guiar la estrategia de búsqueda y delimitar el área de interés. Dada la gran variedad de piezas que integran las estructuras, su conocimiento exhaustivo acrecienta sus usos potenciales. Estas estructuras no deben ser consideradas como una guía rígida a la que ceñirse ineludiblemente.
Resumo:
Los cambiantes avances en la tecnología han transformado la manera en la que el hombre realiza su trabajo, es por ello que las instituciones que brindan educación en todos los niveles desde parvularia hasta la superior deben participar en su formación haciendo de cada estudiante una persona capaz de desenvolverse en dicha área y adaptable a las innovaciones que van surgiendo. Una de las áreas en la que el estudiante debe de estar preparado y adquirir experiencia según exigencias del Ministerio de Educación en el plan 2021 es en la incorporación de la tecnología en los centros de estudio de educación superior esto con el fin de mejorar la productividad y el desarrollo económico, además de preparar capital humano de manera especializada; mientras que la UNESCO establece en que no basta con que los docentes sepan manejar las TIC para que sean capaces de enseñar esta materia a sus alumnos si no que los docentes también puedan ayudar a los estudiantes para que estos trabajen mancomunadamente, resuelvan problemas y desarrollen un aprendizaje creativo mediante el uso de las TIC, de manera que lleguen a ser ciudadanos activos y elementos eficaces de la fuerza laboral. Otro órgano importante como lo es la IFAC a través de la emisión de las normas internacionales de formación establece el contenido para la formación de un profesional en el área de contabilidad entre ellos destaca el conocimiento y competencia en tecnologías de información ya que estos pueden ayudar en el proceso de aprendizaje haciendo de esta manera una combinación de comprensión y experiencia práctica para la solución de los problemas que se le presenten al momento de desenvolverse en sus labores como profesional en las diferentes empresas. Conociendo que dentro de la tecnología de información y comunicación se incluyen los sistemas de información tanto hardware como software, bases de datos, redes y otros dispositivos, se afirma que actualmente en la metodología de estudio para la materia de contabilidad de costos aún no se está implementando; aunque la Facultad de Ciencias Económicas cuenta con los recursos materiales necesarios no se posee un software hecho a la medida del contenido a impartir. Dicha problemática es identificada en el capítulo II en donde se presenta la metodología de investigación y dentro de ella un análisis sobre las unidades de estudio. Por todo lo descrito anteriormente se propone en el presente trabajo la incorporación de herramientas tecnológicas en el proceso de enseñanza-aprendizaje a través de un software didáctico hecho a la medida en el área de contabilidad de costos, lo cual se proporcionará hasta la fase de diseño para que posteriormente sea desarrollado e implementado. Como último punto se concluye y recomienda sobre las TIC en la educación y la forma en que esta puede mejorar el proceso de enseñanza – aprendizaje en la contabilidad específicamente en el área de costo formando en los estudiantes futuros profesionales competentes.
Resumo:
Resumen: Se realiza una revisión sobre los antecedentes de las Redes Neuronales Artificiales (RNA) como método de análisis de bases de datos medioambientales, aplicado en las diversas áreas de la Ingeniería Ambiental en general y de Impacto Ambiental en particular. Se describe como ejemplo, la aplicación de RNA en los algoritmos de inversión de datos obtenidos por sensado remoto satelital, para la medición de variables geofísicas
Resumo:
[ES]La fibrilación ventricular (VF) es el primer ritmo registrado en el 40\,\% de las muertes súbitas por paro cardiorrespiratorio extrahospitalario (PCRE). El único tratamiento eficaz para la FV es la desfibrilación mediante una descarga eléctrica. Fuera del hospital, la descarga se administra mediante un desfibrilador externo automático (DEA), que previamente analiza el electrocardiograma (ECG) del paciente y comprueba si presenta un ritmo desfibrilable. La supervivencia en un caso de PCRE depende fundamentalmente de dos factores: la desfibrilación temprana y la resucitación cardiopulmonar (RCP) temprana, que prolonga la FV y por lo tanto la oportunidad de desfibrilación. Para un correcto análisis del ritmo cardiaco es necesario interrumpir la RCP, ya que, debido a las compresiones torácicas, la RCP introduce artefactos en el ECG. Desafortunadamente, la interrupción de la RCP afecta negativamente al éxito en la desfibrilación. En 2003 se aprobó el uso del DEA en pacientes entre 1 y 8 años. Los DEA, que originalmente se diseñaron para pacientes adultos, deben discriminar de forma precisa las arritmias pediátricas para que su uso en niños sea seguro. Varios DEAs se han adaptado para uso pediátrico, bien demostrando la precisión de los algoritmos para adultos con arritmias pediátricas, o bien mediante algoritmos específicos para arritmias pediátricas. Esta tesis presenta un nuevo algoritmo DEA diseñado conjuntamente para pacientes adultos y pediátricos. El algoritmo se ha probado exhaustivamente en bases de datos acordes a los requisitos de la American Heart Association (AHA), y en registros de resucitación con y sin artefacto RCP. El trabajo comenzó con una larga fase experimental en la que se recopilaron y clasificaron retrospectivamente un total de 1090 ritmos pediátricos. Además, se revisó una base de arritmias de adultos y se añadieron 928 nuevos ritmos de adultos. La base de datos final contiene 2782 registros, 1270 se usaron para diseñar el algoritmo y 1512 para validarlo. A continuación, se diseñó un nuevo algoritmo DEA compuesto de cuatro subalgoritmos. Estos subalgoritmos están basados en un conjunto de nuevos parámetros para la detección de arritmias, calculados en diversos dominios de la señal, como el tiempo, la frecuencia, la pendiente o la función de autocorrelación. El algoritmo cumple las exigencias de la AHA para la detección de ritmos desfibrilables y no-desfibrilables tanto en pacientes adultos como en pediátricos. El trabajo concluyó con el análisis del comportamiento del algoritmo con episodios reales de resucitación. En los ritmos que no contenían artefacto RCP se cumplieron las exigencias de la AHA. Posteriormente, se estudió la precisión del algoritmo durante las compresiones torácicas, antes y después de filtrar el artefacto RCP. Para suprimir el artefacto se utilizó un nuevo método desarrollado a lo largo de la tesis. Los ritmos desfibrilables se detectaron de forma precisa tras el filtrado, los no-desfibrilables sin embargo no.