964 resultados para Minería de datos
Resumo:
La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.
Resumo:
El objetivo de este proyecto es el estudio a nivel de laboratorio para la caracterización tecnológica de caolines de diferente localización de las dos minas de la sociedad Caobar, S.A. con el objetivo de proporcionar una somera perspectiva, desde el punto de vista mineralógico y geoquímico, en la exploración y búsqueda de nuevas reservas. Para ello se ha llevado a cabo una serie de ensayos como el cálculo de rendimiento en caolín del todo-uno o caolín bruto, la determinación del % de óxidos por técnica de fluorescencia de Rayos X, granulometría por técnica láser, las pérdidas por calcinación, el % de sólidos en barbotina y el índice de blancura. Con los datos obtenidos se establecerán correlaciones entre la composición química y los distintos parámetros físicos (blancura, tamaño de grano, etc) de los caolines. Los resultados obtenidos incrementan el grado de conocimiento de las minas, disminuyendo el riesgo y facilitando la labor de exploración.
Resumo:
La presente tesis de doctorado se encuentra inscrita en la línea de investigación ESTADO, TRANSNACIONALIDAD Y SUSTENTABILIDAD; en esta investigación se confrontan deberes, derechos, principios, fines, y políticas de la minería frente a la conservación de las áreas protegidas en Colombia. Estas dos actividades subyacen bajo la dicotomía del desarrollo económico, y/o la conservación ambiental. Una tercera perspectiva, a partir de la transnacionalidad, es el desarrollo sustentable donde sean viables las actividades de desarrollo y conservación de manera concomitante. Con el fin de analizar este tema, se presenta un marco teórico que analiza el concepto de transnacionalidad y sustentabilidad, el plan de desarrollo, las políticas públicas mineras, el sistema de áreas protegidas en Colombia y la política de participación social en la conservación, además de contrastar la teoría y la práctica por medio del estudio de casos. El método utilizado en la fase de investigación es el inductivo y en la exposición de los datos es el deductivo.
Resumo:
Resumen: Se realiza una revisión sobre los antecedentes de las Redes Neuronales Artificiales (RNA) como método de análisis de bases de datos medioambientales, aplicado en las diversas áreas de la Ingeniería Ambiental en general y de Impacto Ambiental en particular. Se describe como ejemplo, la aplicación de RNA en los algoritmos de inversión de datos obtenidos por sensado remoto satelital, para la medición de variables geofísicas
Resumo:
Conociendo la descomposición y mineralización de los residuos vegetales en el suelo se puede mejorar el manejo de plantaciones de café que crecen bajo sombra de árboles maderables, de servicios o de uso múltiple. El primer beneficio que se puede atribuir a los residuos vegetales cuando son depositados en el suelo son entre otros los de reducir el impacto de la lluvia evitando así la pérdida de la capa superficial del suelo, en segundo lugar mejoran la fertilidad del suelo a través del reciclaje de nutrientes y en tercer lugar se puede decir que contribuyen a minimizar el uso de productos químicos como herbicidas al reducir la competencia por espacio y nutrientes entre las malezas y el cultivo de café. El presente estudio fue realizado en época lluviosa del año 2000 con el objetivo de conocer la velocidad de descomposición y liberación de nutrientes de los diferentes componentes de las principales malezas de los cafetales del pacifico sur de Nicaragua. Canastas de descomposición de 30 cm de largo, 30 cm de ancho y 2.5 cm de alto con malla de orificios de 5mm en la parte superficial y 1mm en la parte inferior se llenaron con 30 g de hojas de malezas, 30 g de tallos de malezas y el tercer tratamiento consistió en la mezcla de 15 g de hojas y 15 g de tallos de las mismas malezas. Las canastas fueron depositadas en el suelo y recolectadas a los 7, 14 21, 35 y 56 días en dependencia de la velocidad de descomposición. Los datos de biomasa seca recolectados de las canastas y su correspondiente contenido de nitrógeno, fósforo, potasio, calcio y magnesio se sometieron a análisis estadístico, resultando el más apropiado el modelo doble exponencial decreciente para la descomposición de la biomasa, donde se reflejan dos coeficientes de descomposición representando el primero a la fracción lábil y el segundo a la fracción recalcitrante y el modelo asintótico se ajustó mejor a la liberación del nitrógeno, fósforo, potasio, calcio y magnesio. La pérdida rápida de la biomasa ocurrió durante los primeros 14 días y luego se dio una descomposición bastante lenta desde los 14 hasta los 56 días que duró el estudio y la mayor liberación de los nutrientes ocurrió en los primeros 7 días. En futuros estudios de descomposición y liberación de nutrientes de residuos orgánicos se recomienda utilizar los modelos no lineales como el simple exponencial, doble exponencial y asintótico, que son los que mejor se ajustaron al comportamiento de los datos en ecosistemas terrestres.
Resumo:
Resumen: En el siguiente trabajo se presentan resultados preliminares en la implementación de análisis de fallas aplicando una distribución de Weibull a partir del truncamiento de la población considerada. Se muestra adicionalmente cuáles son los esfuerzos orientados tanto experimentalmente como computacionalmente.
Resumo:
Resumen: Es habitual que en la fundamentación de derecho de la privacidad se acuda al valor de la dignidad humana, pero cuando los autores realizan esa vinculación suelen entender a la dignidad hu - mana como justificada en la mera autonomía del sujeto. Para este punto de vista que denominamos visión moderna, en el ámbito de los derechos fundamentales existe un amplio e indefinido campo de libertad, y esta libertad es o sería el derecho básico en sí mismo, o derecho fundamental por antonomasia. Esto significa la concepción del derecho entendido bajo su faz subjetiva. El derecho como un mero poder cuyo límite está en el poder o la facultad de otro, y el Estado como arbitrador de esos poderes subjetivos en pugna. Sin embargo, los derechos fundamentales entre los que se encuentran el derecho a la intimidad y a la privacidad, el derecho al resguardo del honor y de la imagen, encuentran su justificación en lo justo objetivo y en la dignidad humana. La dignidad como un valor que da sentido se justifica cuando es entendida con una apertura a la trascendencia de la persona, y a un fin objetivo al que dicha trascendencia se encamina.
Resumo:
Con el objetivo de estudiar la influencia del tamaño y forma de la parcela experimental y el número de repeticiones sobre la precisión de los datos experimentales en el cultivo del maíz (zea mays L) se estableció un Ensayo de Uniformidad en la finca “El plantel “ con la variedad NB-6. El tamaño de la U.B. Los datos del ensayo de uniformidad se analizaron basados en la Ley de varianza de Smith. Siguiendo el procedimiento de Koch y Rignev (1951), para determinar las varianzas correspondientes: El Método de Hatheway (1961), se utilizó para determinar la relación objeto de estudio. Se determinó que: En suelos de heterogeneidad media (b=0.55). Asumiendo un alfa de 5% se pueden emplear combinaciones de tamaños de parcelas con número de repeticiones de: 27.98m2; 8.04m2, 3.87m2 y 2.31m2, con 2, 4, 6 y 8 repeticiones respectivamente: la relación tamaño-forma de la parcela experimental sobre la precisión de los datos obtenidos, no ejerce una influencia relevante o considerable sobre la precisión alcanzada.
Resumo:
Con el objetivo de estudiar la influencia del tamaño y forma de la parcela experimental y el número de repeticiones sobre la precisión de los datos experimentales en el cultivo de la soya (Glycine max l) se estableció un Ensayo de Uniformidad en el Centro Experimental del Algodón (C.E.A.) con la variedad Cristalina: El tamaño de la U. B fue de 1.00m2, teniéndose un total de 576 U. B. Los datos del ensayo de uniformidad se analizaron basados en la Ley de varianza de Smith, siguiendo el procedimiento de Koch y Rigney (1951), para determinar las varianza correspondiente; El método de Hatheway y Willams (1958), se utilizo para determinar el coeficiente de heterogeneidad del suelo y el método Harheway (1961), se utilizó para determinar la relación de objeto de estudio. Se determinó que en suelos de heterogeneidad media (b00.41), asumiendo un alfa de 5%, P= 0.8 Gle= 15 y un grado de precisión del 25% se puede emplear tamaños de parcelas comprendidas del 25% se pueden emplear tamaños de parcelas corres prendidas en el rango de 80m2 con 4 repeticiones y se requiere parcelas menores de 10m2 con 6 y 8 repeticiones: También quedó establecido que la relación tamaño- forma de la parcela experimental no ejerce influencia relevante en la precisión de los datos obtenidos.
Resumo:
Conociendo la descomposición y mineralización de los residuos vegetales en el suelo se puede mejorar el manejo de plantaciones de café que crecen bajo sombra de árboles maderables, de servicios o de uso múltiple. Los beneficios que se puede atribuir a los residuos vegetales cuando son depositados en el suelo, son entre otros los de reducir el impacto de la lluvia evitando así la pérdida de la capa superficial del suelo, mejorar la fertilidad del suelo a través del reciclaje de nutrientes y minimizar el uso de productos químicos como herbicidas al reducir la competencia por espacio y nutrientes entre las malezas y el cultivo de café. El presente estudio fue realizado en la época lluviosa del año 2000 con el objetivo de conocer la velocidad de descomposición y liberación de nutrientes de los diferentes componentes de las principales malezas de los cafetales del pacífico sur de Nicaragua. Canastas de descomposición de 30 cm de largo, 30 cm de ancho y 2.5 cm de alto con malla de orificios de cinco mm en la parte superficial y un mm en la parte inferior se llenaron con 30 g de hojas de malezas, 30 g de tallos de malezas y el tercer tratamiento consistió en la mezcla de 15 g de hojas y 15 g de tallos de las mismas malezas. Las canastas fueron depositadas en el suelo y recolectadas a los 7, 14, 21, 35 y 56 días en dependencia de la velocidad de descomposición. Los datos de biomasa seca recolectados de las canastas y su correspondiente contenido de nitrógeno, fósforo, potasio, calcio y magnesio se sometieron a análisis estadístico, resultando el más apropiado el modelo doble exponencial decreciente para la descomposición de la biomasa, donde se reflejan dos coeficientes de descomposición representando el primero a la fracción lábil y el segundo a la fracción recalcitrante. El modelo asintótico se ajustó mejor a la liberación del nitrógeno, fósforo, potasio, calcio y magnesio. La pérdida rápida de la biomasa ocurrió durante los primeros 14 días y luego se dio una descomposición bastante lenta desde los 14 hasta los 56 días que duró el estudio. La mayor liberación de nutrientes ocurrió en los primeros siete días. En futuros estudios de descomposición y liberación de nutrientes de residuos orgánicos se recomienda utilizar los modelos no lineales como el simple exponencial, doble exponencial y asintótico, por su mejor ajuste al comportamiento de los datos en ecosistemas terrestres.
Resumo:
Fecha: 21/26-5-1973 / Unidad de instalación: Carpeta 48 - Expediente 7-19-2 / Nº de pág.: 24 (22 mecanografiadas, 2 manuscritas)
Resumo:
[ES] Este proyecto surgió en el marco del proyecto de investigación:
Resumo:
816 p.
Resumo:
[ES] Se estudian las características comunes y específicas de los gestores personales de bases de datos de referencias bibliográficas más utilizados: Reference Manager, EndNote, ProCite, RefWorks y EndNote Web. Los Apartados analizados son: la entrada de datos, el control de autoridades, los comandos de edición global, la personalización de algunos aspectos de las bases de datos, la exportación de las referencias, la visualización de los Registros, la inserción de citas bibliográficas y la generación automática de bibliografías.
Resumo:
[ES]La utilización de indicadores bibliométricos como los índices de citas y el factor de impacto se han convertido en herramientas imprescindibles tanto para la evaluación de la actividad investigadora como para la medición de la actividad económica y social de un país. El artículo analiza los indicadores para la evaluación de la calidad en la actividad investigadora y profundiza en la utilización de las bases de datos como herramienta de estudios bibliométricos.