1000 resultados para Álgebra-Métodos gráficos
Resumo:
Pós-graduação em Agronomia (Entomologia Agrícola) - FCAV
Resumo:
Pós-graduação em Ciência e Tecnologia de Materiais - FC
Resumo:
In which refers to statistical process control, the analysis of univariate cases is not enough for many types of company, being necessary to resort to multivariate cases. Besides, it is usually supposed that the observations are independent. However, the violation of this hypothesis indicates the existence of autocorrelation in the process. In this work, by a basic quantitative approach for an exploratory and experimental research, the study target are the multivariate autocorrelated control charts, using Hotteling T². The ARL values were collected by simulations of a computational program on FORTRAN language, with objective of studying the charts properties, in addition to compare with the
Resumo:
In which refers to statistical process control, the analysis of univariate cases is not enough for many types of company, being necessary to resort to multivariate cases. Besides, it is usually supposed that the observations are independent. However, the violation of this hypothesis indicates the existence of autocorrelation in the process. In this work, by a basic quantitative approach for an exploratory and experimental research, the study target are the multivariate autocorrelated control charts, using Hotteling T². The ARL values were collected by simulations of a computational program on FORTRAN language, with objective of studying the charts properties, in addition to compare with the
Resumo:
Este documento es la primera parte de los apuntes del curso de doctorado "Métodos analíticos y análisis de señal" del Máster Universitario en Tecnologías y Sistemas de Comunicaciones de la ETSIT-UPM. El objetivo del curso es reforzar los recursos matemáticos de los ingenieros de telecomunicación para facilitar la realización de la tesis doctoral. En esta primera parte se intenta facilitar el uso del álgebra lineal como herramienta en esta rama de la ingeniería. Esta parte del curso se divide en tres partes: - En los primeros temas, básicamente de repaso y nivelación, se aprovecha para establecer conexiones entre conceptos de álgebra lineal y de teoría de la señal. - A continuación se estudian el análisis de componentes principales, la descomposición en valores singulares y varias versiones del problema de mínimos cuadrados, temas que probablemente constituyen las herramientas fundamentales para abordar problemas de análisis de señales en términos de subespacios y distancias euclídeas. Los fundamentos proporcionados permiten abordar de forma sencilla otros problemas como el análisis discriminante lineal y el escalado multidimensional. - En los últimos temas se estudian las cuestiones fundamentales relativas a la implementación de algoritmos matriciales, como son ciertas factorizaciones matriciales y los conceptos de condicionamiento y estabilidad.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
En este trabajo presentamos el estudio de los glifos nahuas coloniales de antropónimos castellanos que contienen algún elemento occidental en su composición. Es decir, analizamos los «prestamos» que los tlacuiloque o escribas indígenas tomaron para escribirlos. Para llevarlo a cabo hemos revisado multitud de códices aunque somos conscientes de que no hemos tenido acceso a todos ellos. No obstante, consideramos que el resultado final recoge la mayor parte de ellos y ofrece datos que nos permitirá en próximos estudios relacionar antropónimos nahuas, topónimos, oficios, cargos, barrios, etc., en los que también se incluyeron elementos culturales occidentales.
Resumo:
Este estudio forma parte de una investigación más amplia que trata de la capacidad expresiva de los sistemas perspectivos1. Bajo esta premisa hemos reflexionado sobre los métodos utilizados por los artistas del trecento italiano para representar la tercera dimensión. Hemos analizado un amplio número de obras, con un doble objetivo: El primero, obtener datos que otorguen consistencia y fiabilidad a una clasificación que nos ayuda a tipificar el espacio perspectivo en esta etapa predecesora de la perspectiva «correcta» (lineal o cónica). El segundo, extrapolar sus características a la construcción de escenarios pseudo-perspectivos mediante la modificación y creación de gráficos tridimensionales por computadora. Este proceso se ha utilizado para extraer los esquemas que nos sirven como herramienta para explorar nuevos caminos en la representación perspectiva, alejados de la lógica euclidiana. Con este propósito se aportan esquemas formales de representaciones clasificadas en diferentes tipos, que posteriormente se transforman para efectuar la construcción volumétrica de los escenarios.
Resumo:
Shrimp farming is one of the activities that contribute most to the growth of global aquaculture. However, this business has undergone significant economic losses due to the onset of viral diseases such as Infectious Myonecrosis (IMN). The IMN is already widespread throughout Northeastern Brazil and affects other countries such as Indonesia, Thailand and China. The main symptom of disease is myonecrosis, which consists of necrosis of striated muscles of the abdomen and cephalothorax of shrimp. The IMN is caused by infectious myonecrosis virus (IMNV), a non-enveloped virus which has protrusions along its capsid. The viral genome consists of a single molecule of double-stranded RNA and has two Open Reading Frames (ORFs). The ORF1 encodes the major capsid protein (MCP) and a potential RNA binding protein (RBP). ORF2 encodes a probable RNA-dependent RNA polymerase (RdRp) and classifies IMNV in Totiviridae family. Thus, the objective of this research was study the IMNV complete genome and encoded proteins in order to develop a system differentiate virus isolates based on polymorphisms presence. The phylogenetic relationship among some totivirus was investigated and showed a new group to IMNV within Totiviridae family. Two new genomes were sequenced, analyzed and compared to two other genomes already deposited in GenBank. The new genomes were more similar to each other than those already described. Conserved and variable regions of the genome were identified through similarity graphs and alignments using the four IMNV sequences. This analyze allowed mapping of polymorphic sites and revealed that the most variable region of the genome is in the first half of ORF1, which coincides with the regions that possibly encode the viral protrusion, while the most stable regions of the genome were found in conserved domains of proteins that interact with RNA. Moreover, secondary structures were predicted for all proteins using various softwares and protein structural models were calculated using threading and ab initio modeling approaches. From these analyses was possible to observe that the IMNV proteins have motifs and shapes similar to proteins of other totiviruses and new possible protein functions have been proposed. The genome and proteins study was essential for development of a PCR-based detection system able to discriminate the four IMNV isolates based on the presence of polymorphic sites
Resumo:
Dissertação (mestrado)–Universidade de Brasília, Universidade UnB de Planaltina, Programa de Pós-Graduação em Ciência de Materiais, 2015.
Resumo:
Durante los últimos años, ha surgido la necesidad de conocer la efectividad de los métodos profilácticos para compensar los cambios hemodinámicos en anestesia raquídea utilizado en pacientes para cesárea, esto ha sido un problema que nos ha incitado a investigar sobre el Tema: Métodos profilácticos para compensar cambios hemodinámicos posteriores al bloqueo raquídeo en pacientes de cesárea en el Hospital Nacional Santa Rosa De Lima, año 2015. Por ello este trabajo tiene como Objetivo: Conocer la efectividad de los métodos profilácticos: Solución Cristaloide Lactato de Ringer y posición decúbito lateral para compensar los cambios hemodinámicos posterior al bloqueo raquídeo en pacientes de cesárea, Hospital Nacional Santa Rosa de Lima, año 2015. Metodología: La investigación fue del tipo descriptivo, donde las técnicas para obtener la información fueron Documental Bibliográfica, Documental Escrita y Documental de Campo. Debido a esto se realizó una investigación tomando como base una población de 30 pacientes, las cuales se dividieron en dos grupos; las primeras 15 pacientes se les aplico la Solución Cristaloide Lactato de Ringer 1000 ml más cambio de posición decúbito lateral y al resto únicamente Solución Cristaloide Lactato de Ringer 1000 ml, las cuales proporcionaron los datos para la elaboración de cuadros y gráficos que se tabularon, analizaron y obteniéndose los siguientes Resultados: que fueron procesados por medio del sistema SPSS versión 19, bajo pruebas correspondientes, determinando que el uso de Solución Cristaloide Lactato de Ringer 1000 ml más posición decúbito lateral proporciona un estado hemodinámico muy estable y las complicaciones no fueron significativas.
Resumo:
Este reporte trata sobre una investigación realizada en la Universidad de Camagüey que se planteó como objetivo la elaboración de un programa analítico de la asignatura álgebra lineal y geometría analítica para la carrera de Ingeniería Mecánica que permitiera elevar la eficiencia del mismo para la solución de problemas y tareas docentes por parte de los estudiantes. Los métodos empleados fueron tanto teóricos como empíricos, mediante ellos y a partir del problema considerado se constató que la concepción existente del Programa Analítico de la asignatura no es adecuado para asegurar el balance entre su nivel de generalización teórica y la solución de problemas con el consecuente desarrollo de habilidades prácticas profesionales e investigativas para garantizar el encargo social. En la investigación se demostró que la articulación teórica y práctica empleando el enfoque sistémico y la teoría de la actividad, permitió dar base teórica a la integración de los temas del álgebra lineal y geometría analítica. Además se rediseñó el programa de la asignatura y su aplicación contribuyó a elevar la eficiencia del proceso de enseñanza-aprendizaje de la misma.
Resumo:
We review here the chemistry of reactive oxygen and nitrogen species, their biological sources and targets; particularly, biomolecules implicated in the redox balance of the human blood, and appraise the analytical methods available for their detection and quantification. Those biomolecules are represented by the enzymatic antioxidant defense machinery, whereas coadjutant reducing protection is provided by several low molecular weight molecules. Biomolecules can be injured by RONS yielding a large repertoire of oxidized products, some of which can be taken as biomarkers of oxidative damage. Their reliable determination is of utmost interest for their potentiality in diagnosis, prevention and treatment of maladies.
Resumo:
In this work, the artificial neural networks (ANN) and partial least squares (PLS) regression were applied to UV spectral data for quantitative determination of thiamin hydrochloride (VB1), riboflavin phosphate (VB2), pyridoxine hydrochloride (VB6) and nicotinamide (VPP) in pharmaceutical samples. For calibration purposes, commercial samples in 0.2 mol L-1 acetate buffer (pH 4.0) were employed as standards. The concentration ranges used in the calibration step were: 0.1 - 7.5 mg L-1 for VB1, 0.1 - 3.0 mg L-1 for VB2, 0.1 - 3.0 mg L-1 for VB6 and 0.4 - 30.0 mg L-1 for VPP. From the results it is possible to verify that both methods can be successfully applied for these determinations. The similar error values were obtained by using neural network or PLS methods. The proposed methodology is simple, rapid and can be easily used in quality control laboratories.
Resumo:
In this review recent methods developed and applied to solve criminal occurences related to documentoscopy, ballistic and drugs of abuse are discussed. In documentoscopy, aging of ink writings, the sequence of line crossings and counterfeiting of documents are aspects to be solved with reproducible, fast and non-destructive methods. In ballistic, the industries are currently producing ''lead-free'' or ''nontoxic'' handgun ammunitions, so new methods of gunshot residues characterization are being presented. For drugs analysis, easy ambient sonic-spray ionization mass spectrometry (EASI-MS) is shown to provide a relatively simple and selective screening tool to distinguish m-CPP and amphetamines (MDMA) tablets, cocaine and LSD.