1000 resultados para Matriz de datos
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Realizar un estudio de la utilidad del análisis factorial como método peculiar de tratar e interpretar variables implícitas a un determinado fenómeno sometido a análisis. 430 sujetos de quinto de EGB: 320 hombres y 111 mujeres. 459 sujetos de octavo de EGB: 354 hombres y 138 mujeres. 346 sujetos de COU: 163 hombres y 83 mujeres. Estudio exploratorio que trata las siguientes variables: adaptación emocional, adaptación familiar, adaptación escolar, adaptación social, reservado-abierto, menos inteligente-más inteligente, inestable-sereno, excitable-calmado, sumiso-dominante, sobrio-entusiasta, perseverante-inconstante, cohibido-activo, sensible-pragmático, dubitativo-activo, astucia-franqueza, inseguro-autosuficiente, controlado-incontrolado, tenso-relajado, sensible-realista, suspicaz-confiado, imaginativo-práctico, aprensivo-sereno, radical-conservador, dependiente-autosuficiente, ansiedad, obsesión, depresión, organización, motivación, desequilibrio somático, satisfacción, creatividad. Cuestionario CBA y CPQ-CCP2 para recopilar los datos de quinto de EGB. Cuestionario TBA y HSPQ para recoger los datos del nivel de octavo de EGB. Cuestionario 16 PF y CPE para recopilar los datos correspondientes a COU. Análisis factorial realizado a través del paquete SPSS. Este análisis está dividido en los apartados propios del mismo: establecer la matriz de correlaciones 'R'; elaborar la matriz reducida 'R'; cálculo matricial; proceso de factorización; hallar la matriz factorial; aplicación del método del factor principal; análisis comparativo por sexo y nivel; análisis de la similaridad en función del sexo por un lado para hombres y otro para mujeres, con el fin de ver si existe alguna relación entre las estructuras factoriales resultantes. La varianza total de una variable relacionada con otra es la suma de la unicidad y de la comunalidad y equivale a la unidad. La matriz de correlaciones 'R' es el punto de partida del análisis factorial. El número de variables abstractas 'R' es el rango de la matriz de correlaciones reducida 'R' y explica la varianza común de todas las variables sometidas al análisis debe de ser menor que el número de variables originales de partida 'N'. La comunalidad de una variable es equivalente a la suma de los cuadrados de los coeficientes factoriales. Es menor a 1. El índice de similaridad se determina en relación a un conjunto de variables fijas y homogéneas comparadas en muestras diferentes. Denota la validez o estabilidad de las variables objeto de la comparación entre las diferentes muestras. El AF pone de manifiesto las relaciones de un conjunto homogéneo de variables a través de la matriz de correlaciones haciendo emerger una estructura factorial determinada independiente de los propios sujetos. Toda investigación basada en análisis factorial se debe ajustar al principio de parsimonia y significado científico de las interpretaciones en el conjunto específico estudiado.
Resumo:
Fue un trabajo elegido por alumnos para el estudio de la posición relativa de dos rectas con un ordenador de bolsillo. Sabemos que si estamos en un ordenador con pantalla nos puede aparecer al introducir los datos de dos rectas, por ejemplo se cortan según un punto o bien son paralelas, etcétera, lo que es evidentes, es que esto no es posible en una calculadora, pues no hay caracteres alfabéticos. Por ello, primer paso reducir a números cada uno de los casos. El trabajo de las alumnas era más problemático porque iban a desarrollar el tema matemático, de forma que luego realizasen la programación. Para entrar en ella, era preciso realizar el esquema preprogramación, llamado organigrama. En un seminario de COU sería interesante que tras la discusión y resolución de un sistema lineal del mismo número de ecuaciones que de incógnitas, les hiciésemos ver a los alumnos que la resolución directa no es la más idónea para un ordenador. Pero al no tener ordenador podemos sustituirlo por una calculadora programada. La programación directa de dos ecuaciones y dos incógnitas y tres y tres, resulta asequible, pues los determinantes se pueden calcular directamente. Pero de cuatro en adelante dificultad y cuanto mayor sea el número de incógnitas, la dificultad mayor. De ahí, que se haya recurrido a métodos de solución interactivos.
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
En este trabajo se presenta un análisis sistémico del sector de salud en el Brasil, basado en el estudio de la estructura productiva sectorial y sus interacciones con los demás sectores de la economía. Se utilizan datos inéditos divulgados por el Instituto Brasileño de Geografía y Estadística (ibge) sobre las Cuentas Nacionales de Salud y se propone una metodología de compatibilización del Sistema de Cuentas Nacionales (matriz de insumo-producto) con las Cuentas Satélite de Salud relativas a los años 2000 y 2005. Esa compatibilización permite entender las relaciones entre el sector de salud y los demás sectores de la economía por medio de indicadores de insumo-producto.
Resumo:
Este trabajo propone una serie de algoritmos con el objetivo de extraer información de conjuntos de datos con redes de neuronas. Se estudian dichos algoritmos con redes de neuronas Enhenced Neural Networks (ENN), debido a que esta arquitectura tiene algunas ventajas cuando se aproximan funciones mediante redes neuronales. En la red ENN los pesos de la matriz principal varián con cada patrón, por lo que se comete un error menor en la aproximación. Las redes de neuronas ENN reúnen la información en los pesos de su red auxiliar, se propone un método para obtener información de la red a través de dichos pesos en formas de reglas y asignando un factor de certeza de dichas reglas. La red ENN obtiene un error cuadrático medio menor que el error teórico de una aproximación matemática por ejemplo mediante polinomios de Taylor. Se muestra como una red ENN, entrenada a partir un conjunto de patrones obtenido de una función de variables reales, sus pesos asociados tienen unas relaciones similares a las que se veri_can con las variables independientes con dicha función de variables reales. Las redes de neuronas ENN aproximan polinomios, se extrae conocimiento de un conjunto de datos de forma similar a la regresión estadística, resolviendo de forma más adecuada el problema de multicolionalidad en caso de existir. Las relaciones a partir de los pesos asociados de la matriz de la red auxiliar se obtienen similares a los coeficientes de una regresión para el mismo conjunto numérico. Una red ENN entrenada a partir de un conjunto de datos de una función boolena extrae el conocimiento a partir de los pesos asociados, y la influencia de las variables de la regla lógica de la función booleana, queda reejada en esos pesos asociados a la red auxiliar de la red ENN. Se plantea una red de base radial (RBF) para la clasificación y predicción en problemas forestales y agrícolas, obteniendo mejores resultados que con el modelo de regresión y otros métodos. Los resultados con una red RBF mejoran al método de regresión si existe colinealidad entre los datos que se dispone y no son muy numerosos. También se detecta que variables tienen más importancia en virtud de la variable pronóstico. Obteniendo el error cuadrático medio con redes RBF menor que con otros métodos, en particular que con el modelo de regresión. Abstract A series of algorithms is proposed in this study aiming at the goal of producing information about data groups with a neural network. These algorithms are studied with Enheced Neural Networks (ENN), owing to the fact that this structure shows sever advantages when the functions are approximated by neural networks. Main matrix weights in th ENN vary on each pattern; so, a smaller error is produced when approximating. The neural network ENN joins the weight information contained in their auxiliary network. Thus, a method to obtain information on the network through those weights is proposed by means of rules adding a certainty factor. The net ENN obtains a mean squared error smaller than the theorical one emerging from a mathematical aproximation such as, for example, by means of Taylor's polynomials. This study also shows how in a neural network ENN trained from a set of patterns obtained through a function of real variables, its associated weights have relationships similar to those ones tested by means of the independent variables connected with such functions of real variables. The neural network ENN approximates polynomials through it information about a set of data may be obtained in a similar way than through statistical regression, solving in this way possible problems of multicollinearity in a more suitable way. Relationships emerging from the associated weights in the auxiliary network matrix obtained are similar to the coeficients corresponding to a regression for the same numerical set. A net ENN trained from a boolean function data set obtains its information from its associated weights. The inuence of the variables of the boolean function logical rule are reected on those weights associated to the net auxiliar of the ENN. A radial basis neural networks (RBF) for the classification and prediction of forest and agricultural problems is proposed. This scheme obtains better results than the ones obtained by means of regression and other methods. The outputs with a net RBF better the regression method if the collineality with the available data and their amount is not very large. Detection of which variables are more important basing on the forecast variable can also be achieved, obtaining a mean squared error smaller that the ones obtained through other methods, in special the one produced by the regression pattern.
Resumo:
En el cálculo de estructuras de barras, es frecuente la aparición de elementos estructurales de directriz curva. Se suelen simular estas situaciones, mediante la introducción de nudos intermedios "extra" y sustitución de los trozos de arco que resultan por barras rectas prismáticas. De este modo, mediante un único programa de cálculo matricial en desplazamientos de barras rectas y prismáticas, se pueden tratar estructuras de barras más generales (variación de la sección, directriz curva, etc.). Los inconvenientes que aparecen en este tratamiento estructural son obvios: Incremento del coste de cálculo al aumentar el número de nudos y aproximación en los resultados producida por la sustitución de la directriz curva de la barra por una poligonal inscrita. Este último aspecto implica, por una parte, la necesidad de introducir las cargas actuantes en las barras, de modo consistente a los nudos extra (en general isostáticamente) y por otra, la especial atención que debe tenerse en el proceso de interpretación de los resultados. Los anteriores inconvenientes pueden evitarse fácilmente, mediante la determinación de la matriz de rigidez y el vector solución inicial (empotramiento total en sus dos extremos) de la barra curva, ya que el método de cálculo matricial en desplazamientos, una vez conocidos estos dos conjuntos de datos, permite su tratamiento de un modo automático, sin distinción del tipo de geometría de la directriz. Es decir, un programa de cálculo-por computador de estructuras de barras, basado en el método del equilibrio de los despÍazamientos, permite, con un esfuerzo adicional de programación insignificante, la inclusión de cualquier tipo de barras curvas.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
135 p.
Resumo:
12 hojas.
Resumo:
Glioxal pode ser obtido a partir de biomassa (como da oxidação de lipídeos) e não é tóxico ou volátil, tendo sido por isso utilizado no presente trabalho como substituto de formaldeído na preparação de resina fenólica do tipo novolaca, sendo usado como catalisador o ácido oxálico, que também pode ser obtido de fontes renováveis. A resina glioxal-fenol foi utilizada na preparação de compósitos reforçados com celulose microcristalina (CM, 30, 50 e 70% em massa), uma celulose com elevada área superficial. As imagens de microscopia eletrônica de varredura (MEV) das superfícies fraturadas demonstraram que os compósitos apresentaram boa interface reforço/matriz, consequência da elevada área superficial da CM e presença de grupos polares (hidroxilas) tanto na matriz como na celulose, o que permitiu a formação de ligações hidrogênio, favorecendo a compatibilidade entre ambas. A análise térmica dinâmico-mecânica (DMTA) demonstrou que todos os compósitos apresentaram elevado módulo de armazenamento à temperatura ambiente. Além disso, o compósito reforçado com 30% de CM apresentou baixa absorção de água, comparável à do termorrígido fenólico, que é utilizado em escala industrial. Os resultados demonstraram que compósitos com boas propriedades podem ser preparados usando elevada proporção de materiais obtidos de biomassa.
Resumo:
Os mecanismos biológicos desenvolvidos para aumentar a qualidade da regeneração óssea e da reparação tecidual de sítios periodontais específicos continuam a ser um desafio e têm sido complementado pela capacidade de adesão celular do colágeno do tipo I, promovida por um peptídeo sintético de adesão celular (P-15), associado a uma matriz inorgânica de osso (MIO) para formar MIO/P-15. O objetivo deste estudo foi avaliar a perda do nível clínico de inserção e a resposta da bolsa periodontal em dentes após 3 e 6 meses da aplicação de enxerto com MIO/P-15. Vinte e um cães do Hospital Veterinário da Universidade de São Paulo foram anestesiados para realização de tratamento periodontal e 132 faces dentais com perda de nível clínico de inserção foram tratadas, sendo que 36,4% (48 faces) receberam o peptídeo de adesão celular e 63,6% (84 faces) compuseram o grupo controle que recebeu tratamento convencional (retalho muco-gengival e aplainamento radicular). O procedimento foi documentado através de radiografia intra-oral e todas as sondagens de bolsas periodontais foram fotografadas. Depois de 3 e de 6 meses, os animais foram re-anestesiados a fim de se obter novas avaliações, radiografias, fotografias e sondagens periodontais. As 48 faces com perda de nível clínico de inserção que receberam material de enxertia apresentaram taxa de 40% de recuperação do nível clínico de inserção após 6 meses. O grupo controle de faces dentais não apresentou alteração do nível clínico de inserção. A face palatina foi a que apresentou melhor taxa de regeneração (40%) e os dentes caninos e molares mostraram as melhores respostas (57,14% e 65%, respectivamente). Não houve sinais de infecção pós-cirúrgica relacionadas à falta de higienização oral dos animais. Pode-se concluir que o MIO/P-15 auxilia na regeneração e re-aderência das estruturas periodontais, incluindo osso alveolar. Sua aplicação mostrou-se fácil e prática e a incidência de complicações pós-cirúrgicas foi baixa. Ainda assim, mais estudos e pesquisas são necessários para que se avalie a quantidade e a qualidade do osso e do ligamento periodontal formados.