944 resultados para Mínimos cuadrados.
Resumo:
El presente estudio obedece a las necesidades académicas y profesionales de brindar un análisis de la administración financiera hotelera a la sociedad, desde el punto de vista de gestión de áreas de mayor impacto en la estructura de liquidez de un hotel y desde el desarrollo de un modelo econométrico que permita no solo la proyección de flujos, sino también la correcta planificación de los recursos, obteniendo así un aprovechamiento de los mismos. Parte de los procesos administrativos que implican el control y supervisión de áreas como cuentas por cobrar, cuentas por pagar e inventarios son indicados con el objetivo de brindar una visión clara al momento de conducir dichas áreas o parte de ellas. Se brinda un análisis de la liquidez a partir de un modelo econométrico basado en el método de Mínimos Cuadrados Ordinarios, estableciendo una función que permita disponer de una proyección de los montos de cuentas por cobrar y cuentas por pagar, y desde esta estimación constituir la liquidez para el año 2014. La información financiera del documento y que en base a ella se ha desarrollado el modelo econométrico, corresponde a un hotel de la Ciudad de Quito. Por razones de seguridad y confidencialidad no se señalará el nombre de la empresa en este estudio.
Resumo:
Caracterizar financieramente al sector comercial ecuatoriano involucra el investigar las principales variables macroeconómicas y financieras inmersas dentro del sector, para lo cual, se partió de la hipótesis de que el sector comercial ecuatoriano tiene un determinado desempeño financiero que se puede caracterizar a través de la construcción de un modelo estadístico. Se inició con la búsqueda de información sobre el desarrollo de modelos estadísticos similares, en tres países (Alemania, México y Chile), sin embargo, en la web superficial no se obtuvo un modelo a seguir pues únicamente se han estructurado modelos utilizando variables macroeconómicas. Por ello, se diseñó un modelo estadístico basado en el método de mínimos cuadrados ordinarios. La base de datos empleada corresponde al formulario 101 “impuesto a la renta de sociedades y establecimientos permanentes” del Servicio de Rentas Internas (SRI). El modelo estadístico trabaja con un nivel de confianza del 95%, existen once observaciones (período 2002-2012), siete variables independientes (exportaciones netas, inventario de materia prima y productos terminados, total costos y gastos, total ingresos, total pasivo, total patrimonio neto y ventas netas locales totales excluye activos fijos) que explican el comportamiento de la variable dependiente (utilidad del ejercicio). Se realizaron las pruebas de hipótesis correspondientes, presentando consistencia en los resultados encontrados. También se realizó la predicción del comportamiento de la variable dependiente por un período, la misma que difirió en 7,1% del valor real, lo que se explica por el limitado número de observaciones. Se construyeron dos escenarios (pesimista y optimista), asignándoles una probabilidad de ocurrencia, con lo que se calculó el valor esperado (US $ 3.727 millones) y la desviación estándar (US $ 4.842 millones). La investigación se compone de cinco capítulos. El primero, realiza una introducción y aborda la metodología. El segundo, refiere al marco teórico. El tercer capítulo, caracteriza estadística y financieramente al sector comercial ecuatoriano. En el cuarto capítulo se evalúan los efectos de la construcción del modelo utilizando el análisis de escenarios y de elasticidad. Mientras que el quinto capítulo recoge las conclusiones, observaciones y recomendaciones de la investigación.
Resumo:
Incluye Bibliografía
Penalizaciones salariales por maternidad y segmentación del mercado laboral: el caso de la Argentina
Resumo:
En este artículo se explora la relación entre la segregación del mercado laboral y las penalizaciones salariales por maternidad en la Argentina en los sectores formal e informal. Se emplean estrategias de estimación de mínimos cuadrados ordinarios (mc o) y regresión por cuantiles, así como la descomposición de Blinder-Oaxaca y la de Ñopo para identificar las fuentes de las diferencias salariales. Se concluye que hay evidencia sólida de segmentación del mercado laboral y que las penalizaciones salariales por maternidad difieren sustancialmente de un sector a otro y entre distintos cuantiles de salarios. En particular, las madres trabajadoras del sector formal no sufren penalizaciones, pero sí las del sector informal. La penalización salarial aumenta con el número de hijos, especialmente por los de menor edad, y es mayor en la base de la distribución salarial condicional, seguida por el extremo superior.
Resumo:
Sobre la base del enfoque de las capacidades, en este trabajo se analiza la multidimensionalidad de la privación en las zonas urbanas del Brasil entre 2003 y 2008. El uso de un índice de cuatro dimensiones (condiciones de vivienda, salud, niveles de educación y participación en el mercado de trabajo) basadas en 13 indicadores revela que la mayoría de las personas vivían en hogares sin privación o en los que esta se registraba respecto de un solo indicador. Al comparar los resultados con el índice de privación según los niveles de ingreso en los estados del Brasil se confirma la desigualdad regional en ambos tipos de medición. Por último, a partir de datos de cohortes sintéticas y modelos de mínimos cuadrados ordinarios (MCO), se verifica la relación entre los atributos personales y la propensión a caer en la privación y a mantenerse en ellas.
Resumo:
O objetivo neste estudo é investigar o efeito direto e interativo do período de avaliação sobre a orientação temporal dos gestores (OTG), isto é, o horizonte de tempo entre o momento de alocação de recursos e o momento do impacto financeiro dessa alocação. Tendo por base a literatura contábil e econômica, são examinadas as seguintes hipóteses: um período de avaliação mais de longo prazo afeta positivamente a OTG e o efeito positivo de um período de avaliação mais de longo prazo sobre a OTG é maior no caso de maior importância atribuída a medidas não financeiras do que a medidas financeiras de desempenho. Aplica-se a técnica estatística de mínimos quadrados parciais (PLS) para testar as hipóteses deste estudo, sendo os dados coletados por meio de um levantamento realizado junto a 66 gestores de nível intermediário que atuam em 11 empresas. Os resultados sugerem que o período de avaliação não possui efeitos diretos sobre a OTG; no entanto, quando considerada sua interação com a medida de desempenho, os resultados indicam que o efeito do período de avaliação sobre a OTG depende da importância relativa de medidas financeiras versus não financeiras. A principal implicação desses resultados é que o uso de um período de avaliação de longo prazo em combinação com um peso maior atribuído a medidas não financeiras de desempenho não afeta positivamente a OTG; ao contrário, esse efeito positivo sobre a OTG está presente quando um período de avaliação de curto prazo está associado a menor importância de medidas não financeiras de desempenho.
Resumo:
Las economías nórdicas son de especial interés por el buen desempeño en sus variables macroeconómicas, este éxito puede ser atribuido a factores como el conocimiento e instrucción, el espíritu empresarial, la cooperación, solidaridad y el modelo nórdico de estado benefactor. Estos países lideran a nivel mundial la mayoría de los indicadores de bienestar. El objetivo de este trabajo es el de estimar las ofertas de trabajo y las tasas de desempleo de Islandia y Noruega a través de un modelo de mercado de trabajo basado en la teoría de la reacción en cadena. Para estimar las tasas de desempleo se utilizará un sistema de tres ecuaciones para cada uno de los países, donde la ecuación de demanda de trabajo y ecuación de salario provienen de dos trabajos de investigaciones previos. Estimaremos las ofertas individuales para Islandia y Noruega para completar el sistema de ecuaciones y así luego estimaremos las tasas de desempleo, lo cual nos permitirá establecer cuáles son los determinantes de la oferta de trabajo en cada uno de estos dos países. Se espera que el presente trabajo brinde resultados que expliquen las causas de las variaciones mostradas por la fuerza de trabajo de ambos países en los últimos años a partir de su relación directa con otras variables y nos permita hacer comparaciones con el resto de los países nórdicos (Dinamarca, Finlandia y Suecia). A tal efecto, primero se observará la evolución del desempleo en los cinco países nórdicos y luego se analizarán detalladamente las distintas instituciones que componen sus mercados de trabajo, lo cual nos permitirá tener una visión más profunda de su funcionamiento y estructura. Asimismo, se hará un desarrollo teórico sobre la teoría de la reacción en cadena por ser el enfoque elegido para nuestro análisis empírico. Seguido, utilizando datos de la Organización para la Cooperación y el Desarrollo Económico (OECD por sus siglas en inglés) se procederá a estimar las ecuaciones por el método de mínimos cuadrados ordinarios, tomando como periodo muestral 1981-2010 para Islandia y 1976-2010 para Noruega, y se calculará el impacto de las variables explicativas sobre la oferta de trabajo a través del cálculo de elasticidades de corto y largo plazo. Finalmente se presentarán las ecuaciones que compondrán el sistema que resolveremos para estimar las tasas de desempleo de Islandia y Noruega.
Resumo:
La presente Tesis Doctoral aborda la aplicación de métodos meshless, o métodos sin malla, a problemas de autovalores, fundamentalmente vibraciones libres y pandeo. En particular, el estudio se centra en aspectos tales como los procedimientos para la resolución numérica del problema de autovalores con estos métodos, el coste computacional y la viabilidad de la utilización de matrices de masa o matrices de rigidez geométrica no consistentes. Además, se acomete en detalle el análisis del error, con el objetivo de determinar sus principales fuentes y obtener claves que permitan la aceleración de la convergencia. Aunque en la actualidad existe una amplia variedad de métodos meshless en apariencia independientes entre sí, se han analizado las diferentes relaciones entre ellos, deduciéndose que el método Element-Free Galerkin Method [Método Galerkin Sin Elementos] (EFGM) es representativo de un amplio grupo de los mismos. Por ello se ha empleado como referencia en este análisis. Muchas de las fuentes de error de un método sin malla provienen de su algoritmo de interpolación o aproximación. En el caso del EFGM ese algoritmo es conocido como Moving Least Squares [Mínimos Cuadrados Móviles] (MLS), caso particular del Generalized Moving Least Squares [Mínimos Cuadrados Móviles Generalizados] (GMLS). La formulación de estos algoritmos indica que la precisión de los mismos se basa en los siguientes factores: orden de la base polinómica p(x), características de la función de peso w(x) y forma y tamaño del soporte de definición de esa función. Se ha analizado la contribución individual de cada factor mediante su reducción a un único parámetro cuantificable, así como las interacciones entre ellos tanto en distribuciones regulares de nodos como en irregulares. El estudio se extiende a una serie de problemas estructurales uni y bidimensionales de referencia, y tiene en cuenta el error no sólo en el cálculo de autovalores (frecuencias propias o carga de pandeo, según el caso), sino también en términos de autovectores. This Doctoral Thesis deals with the application of meshless methods to eigenvalue problems, particularly free vibrations and buckling. The analysis is focused on aspects such as the numerical solving of the problem, computational cost and the feasibility of the use of non-consistent mass or geometric stiffness matrices. Furthermore, the analysis of the error is also considered, with the aim of identifying its main sources and obtaining the key factors that enable a faster convergence of a given problem. Although currently a wide variety of apparently independent meshless methods can be found in the literature, the relationships among them have been analyzed. The outcome of this assessment is that all those methods can be grouped in only a limited amount of categories, and that the Element-Free Galerkin Method (EFGM) is representative of the most important one. Therefore, the EFGM has been selected as a reference for the numerical analyses. Many of the error sources of a meshless method are contributed by its interpolation/approximation algorithm. In the EFGM, such algorithm is known as Moving Least Squares (MLS), a particular case of the Generalized Moving Least Squares (GMLS). The accuracy of the MLS is based on the following factors: order of the polynomial basis p(x), features of the weight function w(x), and shape and size of the support domain of this weight function. The individual contribution of each of these factors, along with the interactions among them, has been studied in both regular and irregular arrangement of nodes, by means of a reduction of each contribution to a one single quantifiable parameter. This assessment is applied to a range of both one- and two-dimensional benchmarking cases, and includes not only the error in terms of eigenvalues (natural frequencies or buckling load), but also of eigenvectors
Resumo:
El presente estudio analiza las intenciones de los usuarios acerca del uso de sistemas de tele-enseñanza LMS (Learning Management Systems, basándose en un modelo que integra el Modelo de Aceptación Tecnológica (TAM, Technology Acceptance Model, la Teoría del Comportamiento Percibido (TPB, Theory of Planned Behavior) y la Teoría Unificada de la Aceptación y Uso de la Tecnología (UTAUT, Unified Theory of Acceptance and Use of Technology), tomando la edad como variable moderadora. Así, este artículo estudia la influencia de la intención conductual, la actitud hacia el uso, la facilidad de uso percibida, la utilidad percibida, la norma subjetiva y la influencia social en la intención de utilizar sistemas e-learning LMS. Como antecedentes de estos factores de influencia se plantean las características del sistema y del usuario. El resultado de la revisión teórica es un modelo unificado que ha sido validado con datos recogidos de 94 estudiantes a través de un cuestionario en línea. Estos datos han sido analizados utilizando la técnica de mínimos cuadrados parciales, y los principales resultados confirman la relevancia predictiva del modelo para usuarios de entre 26 y 35 años y de entre 36 y 45 años.
Confined crystallization of nanolayered poly(ethylene terephthalate) using X-ray diffraction methods
Resumo:
The development of crystalline lamellae in ultra-thin layers of poly(ethylene terephthalate) PET confined between polycarbonate (PC) layers in an alternating assembly is investigated as a function of layer thickness by means of X-ray diffraction methods. Isothermal crystallization from the glassy state is in-situ followed by means of small-angle X-ray diffraction. It is found that the reduced size of the PET layers influences the lamellar nanostructure and induces a preferential lamellar orientation. Two lamellar populations, flat-on and edge-on, are found to coexist in a wide range of crystallization temperatures (Tc = 117–150 °C) and within layer thicknesses down to 35 nm. Flat-on lamellae appear at a reduced crystallization rate with respect to bulk PET giving rise to crystals of similar dimensions separated by larger amorphous regions. In addition, a narrower distribution of lamellar orientations develops when the layer thickness is reduced or the crystallization temperature is raised. In case of edge-on lamellae, crystallization conditions also influence the development of lamellar orientation; however, the latter is little affected by the reduced size of the layers. Results suggest that flat-on lamellae arise as a consequence of spatial confinement and edge-on lamellae could be generated due to the interactions with the PC interface. En este trabajo se investiga mediante difracción de rayos X a ángulos bajos (SAXS) y a ángulos altos (WAXS), la cristalización de láminas delgadas de Polietilén tereftalato (PET) confinadas entre láminas de Policarbonato (PC), tomando como referencia PET sin confinar. El espesor de las capas de PET varía entre 35nm y 115 nm. Se realizaron medidas de difracción a tres temperaturas de cristalización (117ºC, 132ºC y 150ºC) encontrándose que el reducido espesor de las capas de PET influye en la estructura lamelar que se desarrolla, induciendo una orientación preferente de las láminas. Se integró la intensidad difractada alrededor del máximo en SAXS para obtener una representación de la intensidad en función del ángulo acimutal. Mediante análisis de mínimos cuadrados se separó la curva experimental obtenida en tres contribuciones diferentes: una función Gausiana que describe la distribución de las orientaciones de las lamelas, una función lorenziana asociada a los máximos meridionales (asociados a las interfases PET-PC) y un background constante. Por otra parte la cantidad de material cristalizado se estimó asumiendo que la intensidad del background en el barrido acimutal, una vez restado el background del primer difractograma (sin máximos en SAXS) se asocia con la contribución del material isotrópico que resta en la muestra cristalizada. Se observa la coexistencia de dos poblaciones de lamelas: flat-on y edge-on. A medida que el espesor de las láminas de PET disminuye la población de las lamelas flat-on experimenta los siguientes cambios: 1) la distribución de orientación se estrecha, 2) la fracción de material cristalizado orientado aumenta, 3) la cinética de cristalización se ralentiza y 4) el largo espaciado aumenta es decir las regiones amorfas entre lamelas aumentan su tamaño. Parece demostrarse que es en las primeras etapas del crecimiento lamelar cuando la restricción espacial fuerza a las lamelas a esta orientación tipo flat-on frente a la orientación edge-on.
Resumo:
El presente proyecto de fin de carrera describe y analiza el estudio integral del efecto de las vibraciones producidas por voladuras superficiales realizadas en el proyecto del “Tercer Juego de Esclusas” ejecutado para la Expansión del Canal de Panamá. Se recopilan un total de 53 registros, data generada por el monitoreo de 7 sismógrafos en 10 voladuras de producción realizadas en el año 2010. El fenómeno vibratorio tiene dos parámetros fundamentales, la velocidad pico-partícula (PPV) y la frecuencia dominante, los cuales caracterizan cuan dañino puede ser éste frente a su influencia sobre las estructuras civiles; por ello, se pretende caracterizarlas y fundamentalmente predecirlas, lo que permitirá su debido control. En función a lo expuesto, el estudio realizado consta de dos partes, la primera describe el comportamiento del terreno mediante la estimación de la ley de atenuación de la velocidad pico-partícula a través del uso de la regresión lineal por mínimos cuadrados; la segunda detalla un procedimiento validable para la predicción de la frecuencia dominante y del pseudo-espectro de respuesta de velocidad (PVRS) basada en la teoría de Newmark & Hall. Se ha obtenido: (i) la ley de atenuación del terreno para distintos grados de fiabilidad, (ii) herramientas de diseño de voladuras basadas en la relación de carga – distancia, (iii) la demostración que los valores de PPV se ajustan a una distribución log-normal, (iv) el mapa de isolíneas de PPV para el área de estudio, (v) una técnica detallada y válida para la predicción de la frecuencia dominante y del espectro de respuesta, (vi) formulaciones matemáticas de los factores de amplificación para el desplazamiento, velocidad y aceleración, (vii) mapa de isolíneas de amplificación para el área de estudio. A partir de los resultados obtenidos se proporciona información útil para su uso en el diseño y control de las voladuras posteriores del proyecto. ABSTRACT This project work describes and analyzes the comprehensive study of the effect of the vibrations produced by surface blasting carried out in the "Third Set of Locks" project executed for the expansion of the Panama Canal. A total of 53 records were collected, with the data generated by the monitoring of 7 seismographs in 10 production blasts carried out in 2010. The vibratory phenomenon has two fundamental parameters, the peak-particle velocity (PPV) and the dominant frequency, which characterize how damaging this can be compared to their influence on structures, which is why this is intended to characterize and predict fundamentally, that which allows proper control. Based on the above, the study consists of two parts; the first describes the behavior of the terrain by estimating the attenuation law for peak-particle velocity by using the ordinary least squares regression analysis, the second details a validable procedure for the prediction of the dominant frequency and pseudo-velocity response spectrum (PVRS) based on the theory of Newmark & Hall. The following have been obtained: (i) the attenuation law of the terrain for different degrees of reliability, (ii) blast design tools based on charge-distance ratio, (iii) the demonstration that the values of PPV conform to a log-normal distribution, (iv) the map of isolines of PPV for the area of study (v) detailed and valid technique for predicting the dominant frequency response spectrum, (vi) mathematical formulations of the amplification factors for displacement, velocity and acceleration, (vii) amplification of isolines map for the study area. From the results obtained, the study provides useful information for use in the design and control of blasting for subsequent projects.
Resumo:
En esta comunicación presentamos un procedimiento para identificar la forma de la curva elástica de un túnel o refuerzo de mina, cuando se conocen las distancias entre unos puntos determinados. Este procedimiento puede emplearse para identificar esfuerzos y presiones, comparando los resultados obtenidos a partir de deformaciones sucesivas de la estructura. El método ha sido implementado en un programa de computador que puede emplearse en microcomputadores. Como se ha visto, el método propuesto es suficientemente robusto y seguro para ser aplicado en las severas condiciones de muchos trabajos de ingeniería civil y de minas. La técnica de mínimos cuadrados ha demostrado ser particularmente efectiva para la obtención de las coordenadas de los puntos. El conocimiento de las pendientes o las curvaturas en los puntos extremos mejora notablemente los resultados en las proximidades de estos puntos, aunque no mejora apreciablemente los resultados en los puntos más alejados. La extensión clara del procedimiento es hacia el cálculo de esfuerzos y la identificación de presiones. Esto puede realizarse mediante un método paso a paso, que permita la posibilidad de considerar una respuesta elástica lineal. Si las medidas se toman en intervalos suficientemente cortos, resultaría posible localizar articulaciones plásticas y repetir el método, identificando la forma de la estructura por tramos. Obviamente, al mismo resultado se llegaría si estas articulaciones plásticas se detectaran durante la realización de las mediciones.
Resumo:
El objetivo de este proyecto de investigación es comparar dos técnicas matemáticas de aproximación polinómica, las aproximaciones según el criterio de mínimos cuadrados y las aproximaciones uniformes (“minimax”). Se describen tanto el mercado actual del cobre, con sus fluctuaciones a lo largo del tiempo, como los distintos modelos matemáticos y programas informáticos disponibles. Como herramienta informática se ha seleccionado Matlab®, cuya biblioteca matemática es muy amplia y de uso muy extendido y cuyo lenguaje de programación es suficientemente potente para desarrollar los programas que se necesiten. Se han obtenido diferentes polinomios de aproximación sobre una muestra (serie histórica) que recoge la variación del precio del cobre en los últimos años. Se ha analizado la serie histórica completa y dos tramos significativos de ella. Los resultados obtenidos incluyen valores de interés para otros proyectos. Abstract The aim of this research project is to compare two mathematical models for estimating polynomial approximation, the approximations according to the criterion of least squares approximations uniform (“Minimax”). Describes both the copper current market, fluctuating over time as different computer programs and mathematical models available. As a modeling tool is selected main Matlab® which math library is the largest and most widely used programming language and which is powerful enough to allow you to develop programs that are needed. We have obtained different approximating polynomials, applying mathematical methods chosen, a sample (historical series) which indicates the fluctuation in copper prices in last years. We analyzed the complete historical series and two significant sections of it. The results include values that we consider relevant to other projects
Resumo:
Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.
Resumo:
Una evolución del método de diferencias finitas ha sido el desarrollo del método de diferencias finitas generalizadas (MDFG) que se puede aplicar a mallas irregulares o nubes de puntos. En este método se emplea una expansión en serie de Taylor junto con una aproximación por mínimos cuadrados móviles (MCM). De ese modo, las fórmulas explícitas de diferencias para nubes irregulares de puntos se pueden obtener fácilmente usando el método de Cholesky. El MDFG-MCM es un método sin malla que emplea únicamente puntos. Una contribución de esta Tesis es la aplicación del MDFG-MCM al caso de la modelización de problemas anisótropos elípticos de conductividad eléctrica incluyendo el caso de tejidos reales cuando la dirección de las fibras no es fija, sino que varía a lo largo del tejido. En esta Tesis también se muestra la extensión del método de diferencias finitas generalizadas a la solución explícita de ecuaciones parabólicas anisótropas. El método explícito incluye la formulación de un límite de estabilidad para el caso de nubes irregulares de nodos que es fácilmente calculable. Además se presenta una nueva solución analítica para una ecuación parabólica anisótropa y el MDFG-MCM explícito se aplica al caso de problemas parabólicos anisótropos de conductividad eléctrica. La evidente dificultad de realizar mediciones directas en electrocardiología ha motivado un gran interés en la simulación numérica de modelos cardiacos. La contribución más importante de esta Tesis es la aplicación de un esquema explícito con el MDFG-MCM al caso de la modelización monodominio de problemas de conductividad eléctrica. En esta Tesis presentamos un algoritmo altamente eficiente, exacto y condicionalmente estable para resolver el modelo monodominio, que describe la actividad eléctrica del corazón. El modelo consiste en una ecuación en derivadas parciales parabólica anisótropa (EDP) que está acoplada con un sistema de ecuaciones diferenciales ordinarias (EDOs) que describen las reacciones electroquímicas en las células cardiacas. El sistema resultante es difícil de resolver numéricamente debido a su complejidad. Proponemos un método basado en una separación de operadores y un método sin malla para resolver la EDP junto a un método de Runge-Kutta para resolver el sistema de EDOs de la membrana y las corrientes iónicas. ABSTRACT An evolution of the method of finite differences has been the development of generalized finite difference (GFD) method that can be applied to irregular grids or clouds of points. In this method a Taylor series expansion is used together with a moving least squares (MLS) approximation. Then, the explicit difference formulae for irregular clouds of points can be easily obtained using a simple Cholesky method. The MLS-GFD is a mesh-free method using only points. A contribution of this Thesis is the application of the MLS-GFDM to the case of modelling elliptic anisotropic electrical conductivity problems including the case of real tissues when the fiber direction is not fixed, but varies throughout the tissue. In this Thesis the extension of the generalized finite difference method to the explicit solution of parabolic anisotropic equations is also given. The explicit method includes a stability limit formulated for the case of irregular clouds of nodes that can be easily calculated. Also a new analytical solution for homogeneous parabolic anisotropic equation has been presented and an explicit MLS- GFDM has been applied to the case of parabolic anisotropic electrical conductivity problems. The obvious difficulty of performing direct measurements in electrocardiology has motivated wide interest in the numerical simulation of cardiac models. The main contribution of this Thesis is the application of an explicit scheme based in the MLS-GFDM to the case of modelling monodomain electrical conductivity problems using operator splitting including the case of anisotropic real tissues. In this Thesis we present a highly efficient, accurate and conditionally stable algorithm to solve a monodomain model, which describes the electrical activity in the heart. The model consists of a parabolic anisotropic partial differential equation (PDE), which is coupled to systems of ordinary differential equations (ODEs) describing electrochemical reactions in the cardiac cells. The resulting system is challenging to solve numerically, because of its complexity. We propose a method based on operator splitting and a meshless method for solving the PDE together with a Runge-Kutta method for solving the system of ODE’s for the membrane and ionic currents.