288 resultados para Industría minera
Resumo:
La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.
Resumo:
Colombia is one the largest per capita mercury polluters as a consequence of its artisanal gold mining operations, which are steadily increasing following the rising price of this metal. Compared to gravimetric separation methods and cyanidation, the concentration of gold using Hg amalgams presents several advantages: the process is less time-consuming and minimizes gold losses, and Hg is easily transported and inexpensive relative to the selling price of gold. Very often, mercury amalgamation is carried out on site by unprotected workers. During this operation large amounts of mercury are discharged to the environment and eventually reach the fresh water bodies in the vicinity where it is subjected to methylation. Additionally, as gold is released from the amalgam by heating on open charcoal furnaces in small workshops, mercury vapors are emitted and inhaled by the artisanal smelters and the general population
Resumo:
Expedición a Asturias en 1897 : La Felguera, Fábrica de Zinc en Arnao, alumbrado eléctrico en Oviedo y El Turón
Resumo:
Se ha utilizado un programa de modelización de ondas sísmicas por métodos finitos en dos dimensiones para analizar el efecto Source Ghost en profundidades de 4, 14, 24 y 34 metros. Este efecto se produce cuando se dispara una fuente enterrada y, debido al contacto suelo-aire, se genera una onda reflejada que, en cierto momento, se superpone con la onda principal, produciéndose una disminución de la amplitud de la onda (Source Ghost). Los resultados teóricos del efecto se han comparado con los resultados prácticos del programa de modelización concluyéndose que es posible determinar el rango de frecuencias afectado por el efecto. Sin embargo, la distancia entre receptor y fuente es una nueva variable que desplaza el efecto hacia frecuencias más altas impidiendo su predicción. La utilización de una técnica de procesamiento básica como la corrección del Normal Move-Out (NMO) en el apilado de las trazas, contrarresta la variable distancia receptor-fuente, y por tanto es posible calcular el rango de frecuencias del efecto Source Ghost. Abstract A seismic wave forward modeling in two dimensions using finite-difference method has been used for analyzing the Source Ghost effect at depths between 4-34 meters. A shot from a buried source generates a down going reflection due to the free surface boundary and, at some point, it interferes with the main wave propagation causing a reduction of wave amplitude at some frequency range (Source Ghost). Theoretical results and experimental results provided by the forward modeling are compared for concluding that the forward modeling is able to identify the frequency range affected by the source ghost. Nevertheless, it has been found that the receiver-source distance (offset) is a new variable that modifies the frequency range to make it unpredictable. A basic seismic processing technique, Normal Move-Out (NMO) correction, has been used for a single twenty fold CMP gather. The final stack shows that the processing technique neutralize the offset effect and therefore the forward modeling is still capable to determine the affected frequency range by the source ghost regardless the distance between receiver and source.
Resumo:
El objetivo de este proyecto es realizar un estudio geotécnico para la edificación de una vivienda unifamiliar sobre un terreno expansivo en Gata de Gorgos (Alicante). El edificio consta de 3 plantas y una superficie construida de 220 mP. Se realizaron los trabajos de campo, se ensayaron en el laboratorio las muestras obtenidas y se definieron los diferentes niveles geotécnicos. Existiendo un riesgo por expansividad en uno de los niveles, se concluyo con la solución de cimentación mediante pozos, realizándose los cálculos necesarios para el posterior proyecto de la obra. ABSTRACT The object of this project is to realize a geotechnical study for the construction of a detached house over expansive terrain at Gata de Gorgos (Alicante). The building consists of three floors with a total area of 220 mP. Fieldworks were accomplished, obtained samples were tested in the laboratory and the different geotechnical levels were defined. Due to a risk of expansiveness in one of the levels, foundation solution will be done through wells. Finally, there were realized the calculations needed for the project of subsequent building.
Resumo:
La explotación del shale gas ha supuesto una revolución energética en Estados Unidos. Sin embargo, los yacimientos de lutitas no pueden ser explotados con las tecnologías de recuperación de hidrocarburos convencionales debido a las condiciones de permeabilidad ultra baja que predominan en estas formaciones. La perforación de pozos horizontales en combinación con la fracturación hidráulica son las tecnologías que han permitido el desarrollo de la producción a gran escala de este recurso no convencional. La perforación horizontal permite aumentar el contacto directo entre el yacimiento y el pozo, además de conectar yacimientos discontinuos para los que serían necesarios varios pozos verticales en otro caso. La fracturación hidráulica es una técnica de estimulación que aumenta la permeabilidad de la formación mediante la apertura de grietas que liberan el gas atrapado en los poros y adsorbido en la materia orgánica. En España cada vez es más evidente la oportunidad económica que supondría el aprovechamiento del shale gas presente en la cuenca Vasco-Cantábrica, y el desencadenante para que comiencen los proyectos de explotación puede ser el éxito de las actividades que se están llevando a cabo en Reino Unido.
Resumo:
Almadén: ligera reseña sobre los criaderos e instalaciones de los pozos.Taller de reparación. Tozno Pinette.Perforadora "pequeño Herculés". Minas de San Quintín. Grupo San Froilán. Taller de preparación mecánica. Grupo San Matias.Lavadero de San Matias
Resumo:
Proyecto de una dinamo de inducido dentado e inductor multipolar en derivación, de 100 kv de potencia y de una diferencia de potencial en las terminales de 250 V.
Resumo:
La minería de datos es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de datos. La minería de datos busca generar información similar a la que podría producir un experto humano. Además es el proceso de descubrir conocimientos interesantes, como patrones, asociaciones, cambios, anomalías y estructuras significativas a partir de grandes cantidades de datos almacenadas en bases de datos, data warehouses o cualquier otro medio de almacenamiento de información. El aprendizaje automático o aprendizaje de máquinas es una rama de la Inteligencia artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. La minería de datos utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. En los últimos años se han aplicado las técnicas de clasificación y aprendizaje automático en un número elevado de ámbitos como el sanitario, comercial o de seguridad. Un ejemplo muy actual es la detección de comportamientos y transacciones fraudulentas en bancos. Una aplicación de interés es el uso de las técnicas desarrolladas para la detección de comportamientos fraudulentos en la identificación de usuarios existentes en el interior de entornos inteligentes sin necesidad de realizar un proceso de autenticación. Para comprobar que estas técnicas son efectivas durante la fase de análisis de una determinada solución, es necesario crear una plataforma que de soporte al desarrollo, validación y evaluación de algoritmos de aprendizaje y clasificación en los entornos de aplicación bajo estudio. El proyecto planteado está definido para la creación de una plataforma que permita evaluar algoritmos de aprendizaje automático como mecanismos de identificación en espacios inteligentes. Se estudiarán tanto los algoritmos propios de este tipo de técnicas como las plataformas actuales existentes para definir un conjunto de requisitos específicos de la plataforma a desarrollar. Tras el análisis se desarrollará parcialmente la plataforma. Tras el desarrollo se validará con pruebas de concepto y finalmente se verificará en un entorno de investigación a definir. ABSTRACT. The data mining is a field of the sciences of the computation referred to the process that it tries to discover patterns in big volumes of information. The data mining seeks to generate information similar to the one that a human expert might produce. In addition it is the process of discovering interesting knowledge, as patterns, associations, changes, abnormalities and significant structures from big quantities of information stored in databases, data warehouses or any other way of storage of information. The machine learning is a branch of the artificial Intelligence which aim is to develop technologies that they allow the computers to learn. More specifically, it is a question of creating programs capable of generalizing behaviors from not structured information supplied in the form of examples. The data mining uses methods of machine learning to discover and to enumerate present patterns in the information. In the last years there have been applied classification and machine learning techniques in a high number of areas such as healthcare, commercial or security. A very current example is the detection of behaviors and fraudulent transactions in banks. An application of interest is the use of the techniques developed for the detection of fraudulent behaviors in the identification of existing Users inside intelligent environments without need to realize a process of authentication. To verify these techniques are effective during the phase of analysis of a certain solution, it is necessary to create a platform that support the development, validation and evaluation of algorithms of learning and classification in the environments of application under study. The project proposed is defined for the creation of a platform that allows evaluating algorithms of machine learning as mechanisms of identification in intelligent spaces. There will be studied both the own algorithms of this type of technologies and the current existing platforms to define a set of specific requirements of the platform to develop. After the analysis the platform will develop partially. After the development it will be validated by prove of concept and finally verified in an environment of investigation that would be define.
Resumo:
Proyecto de grúa eléctrica para el servicio de un taller de hornos Martin-Siemens de 12 toneladas
Resumo:
Diario de viaje correspondiente al alumno Federico de Castro Manuscrito : prácticas de 6º curso
Resumo:
Extensive spatial and temporal surveys, over 15 years, have been conducted in soil in urban parks and street dusts in one of the most polluted cities in western Europe, Avilés (NW Spain). The first survey was carried out in 1996, and since then monitoring has been undertaken every five years. Whilst the sampling site is a relatively small town, industrial activities (mainly the steel industry and Zn and Al metallurgy) and other less significant urban sources, such as traffic, strongly affect the load of heavy metals in the urban aerosol. Elemental tracers have been used to characterise the influence of these sources on the composition of soil and dust. Although PM10 has decreased over these years as a result of environmental measures undertaken in the city, some of the “industrial” elements still remain in concentrations of concern for example, up to 4.6% and 0.5% of Zn in dust and soil, respectively. Spatial trends in metals such as Zn and Cd clearly reflect sources from the processing industries. The concentrations of these elements across Europe have reduced over time, however the most recent results from Avilés revealed an upward trend in concentration for Zn, Cd, Hg and As. A risk assessment of the soil highlighted As as an element of concern since its cancer risk in adults was more than double the value above which regulatory agencies deem it to be unacceptable. If children were considered to be the receptors, then the risk nearly doubles from this element.
Resumo:
Memoria sobre el Alto horno de "La Compañía de Asturias"
Resumo:
Como consecuencia de los procesos de globalización el mundo empresarial está sometido a constantes cambios que han originado la necesidad en las empresas de evaluar su funcionamiento, con el objeto de adecuar su gestión a las mejores prácticas gerenciales y operativas, en función de adaptarse a las exigencias presentes en los escenarios en que están inmersas. La presente investigación tiene como propósito desarrollar un modelo explicativo de la relación entre la productividad y los valores organizacionales, teniendo como premisa los distintos planteamientos o teorías que destacan la importancia que tienen los valores organizacionales para que las empresas logren sus metas. Específicamente se tomó como referencia la clasificación de los valores organizacionales, que contempla el modelo de gestión de Dirección por Valores (DPV), de García y Dolan (2001). Las PYMES, al considerar el efecto que tienen los valores organizacionales en la productividad, pueden apoyar su gestión a través del compromiso de las personas para lograr los resultados de productividad que quieren o necesitan alcanzar. El abordaje del estudio se ha basado en la investigación explicativa, a través de la cual se exponen las razones de ocurrencia de un fenómeno o se muestran los mecanismos por los que se relacionan dos o más variables, lo que permitió conjugar definiciones y supuestos de las relaciones encontradas entre los valores organizacionales identificados de acuerdo a la opinión de los entrevistados y que resultaron ser significativos con los resultados de productividad que presentan las empresas que fueron objeto de esta investigación La población estuvo conformada por 40 empresas activas del sector metalúrgico y minero de Ciudad Guayana, Estado Bolívar, Venezuela, pertenecientes a la Asociación de Industriales Metalúrgicos y de Minería de la región Guayana (AIMM) y al directorio de la Cámara de Industriales y Mineros de Guayana. La muestra estudiada corresponde a 25 empresas que representan el 62% de la población. El proceso que se siguió para generar el modelo explicativo contempla tres etapas. La primera consiste en la fase descriptiva donde se recogió la información referente a la productividad de las empresas y a la determinación de los valores organizacionales identificados a través del análisis cualitativo de las entrevistas que se realizaron a los informantes de las empresas de la muestra. Para ello se utilizó el software Atlas ti 6.0. La segunda etapa, denominada comparativa, consistió en determinar la relación entre la productividad y los valores organizacionales, a través de las tablas de contingencias, de acuerdo con el grado de significancia que mostró el estadístico Chi- cuadrado. La tercera y última etapa del proceso es la fase explicativa que consistió en estimar la magnitud de la relación entre las variables productividad y valores organizacionales utilizando el coeficiente de contingencia de Pearson, y en establecer las asociaciones de acuerdo a las proximidades observadas que resultaron del análisis de correspondencias múltiples. Entre los hallazgos del estudio desarrollado se encontró que la productividad de las empresas puede fijarse en tres categorías: alta, media y baja y entre los factores que afectan a la productividad destacan, en el contexto externo: el gobierno, los clientes y los proveedores y en el contexto interno: la mano de obra, los materiales y los suministros. Según la opinión de los gerentes entrevistados, los valores organizacionales que caracterizan a las empresas del sector estudiado se agrupan en veintisiete categorías, que se clasifican en los siguientes componentes: entorno mercado, clientes, proveedores y otras empresas aliadas, medio ambiente, forma de tratar la Dirección al resto de empleados, forma de trabajar cotidiana y gestión de los recursos económicos. Los valores organizacionales que resultaron ser significativos fueron la innovación, la honestidad y el orden y limpieza. La magnitud de la relación encontrada del valor innovación fue moderadamente fuerte. Se infiere que las empresas, al tener una Productividad baja, deciden innovar en el desarrollo de nuevos productos. El valor honestidad arrojó una relación moderadamente fuerte, determinando que las empresas de Productividad alta basan sus relaciones con los proveedores en la honestidad. Finalmente, el valor orden y limpieza muestra una relación moderadamente débil, lo que hace suponer que las empresas de Productividad media tienen alguna preferencia por mantener el orden y limpieza en las áreas de trabajo. El modelo explicativo de la relación entre productividad y valores organizacionales, en las PYMES del sector metalúrgico y minero de Ciudad Guayana, quedó conformado por los siguientes componentes: mercado, clientes, proveedores y otras empresas aliadas, y medio ambiente. No se encontraron relaciones en los componentes forma de tratar la Dirección al resto de empleados, forma de trabajar cotidiana y gestión de los recursos económicos. ABSTRACT As a result of globalization processes, the business world is subject to constant change. This has resulted in the need for companies to evaluate their performance in order to adjust their processes to the best managerial and operational practices, with the goal to adapt to the demands present in the scenarios in which they are embedded. This research aimed to develop an explanatory model of the relationship between productivity and organizational values. In addition, it was based on the different approaches or theories that relate the importance for enterprises of the organizational values to achieve their goals. Specifically, reference was made to the classification of organizational values, which includes the model of Management by Values (DPV) following García and Dolan (1997). The SMEs, considering the effect of organizational values on productivity, can support their management through the commitment of their people to achieve productivity results that they want or need to accomplish. The study approach was based on explanatory research, which presents the reasons for occurrence of a phenomenon and the mechanisms through which two or more variables are related. This allowed to combine definitions and assumptions about the relationship found between organizational values and the productivity results of the companies that took part in this research. Organizational values were identified in the opinion of the managers interviewed, and were found to be significant with the productivity results. The population consisted of 40 active enterprises of the metallurgical and mining industry of Ciudad Guayana, Estado Bolivar, Venezuela. These enterprises were members of the Association of Metallurgical and Mining Industry of the Guayana Region (AIMM, by its acronym in Spanish) and the Directory of the Chamber of Industrial and Mining of Guayana. The sample of the study is comprised of 25 enterprises, which represent 62% of the total population. The process which has been followed to generate the explanatory model involves three stages. The first stage is the descriptive phase where the information about enterprises productivity and the determination of organizational values is gathered. These organizational values were identified by a qualitative analysis of the interviews conducted with managers of each enterprise. This analysis was performed using the Atlas ti 6.0 software. The second stage, denominated comparative, consisted in determining the relationship between productivity and organizational values through contingency tables, and according to the degree of significance showed by the Chi-Square, statistic. The third, and final stage of the process, is the explanatory phase. This consisted in estimating the magnitude of the relationship between productivity and organizational values variables using the Pearson's contingency coefficient. In addition, this stage comprises the establishment of the associations according to the observed proximities that resulted from the multiple correspondence analysis. Among the findings of this study, it was found that the productivity of enterprises can be set in three categories: high, medium and low. Additionally, it was found that in the external context the factors that stand out affecting productivity are: government policy, customers and suppliers, while in the domestic context they are: labor, materials and supplies. According to the opinion of the managers interviewed the organizational values that characterize the companies that were studied are grouped into twenty seven categories. These categories are classified into the following components: market environment, customers, suppliers and other allied companies, the environment, how Management deals with of the employees, way to work every day, and management of economic resources. Organizational values that were found to be significant were innovation, honesty and order and cleanliness. The magnitude of the relation of the innovation value was found to be moderately strong. It is inferred that companies that have low productivity decide to innovate in the development of new products. The honesty value showed a moderately strong relation, determining that high productivity enterprises base their relationships with suppliers on honesty. Lastly, the order and cleanliness value showed a moderately weak relation, which suggests that average productivity enterprises have a preference to maintain order and cleanliness in the work areas. The explanatory model of the relationship between productivity and organizational values, in the SMEs of the metallurgical and mining sector of Ciudad Guayana, was composed of the following components: market, customers, suppliers and other allied companies, and the environment. No relationships were found in the following components: how Management deals with employees, way to work every day, and management of economic resources.
Resumo:
Memoria sobre los trabajos prácticos de electrotecnia general