1000 resultados para Técnicas de clasificación


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las comunicaciones por satélite tienen cada vez mayores necesidades de espectro, con el objetivo de ofrecer servicios de banda ancha, tanto de comunicación de datos como de radiodifusión. En esta línea, se está incrementando de manera importante el uso de frecuencias en la banda Ka (20 y 30 GHz), que se verá complementada en el futuro por la banda Q/V (40 y 50 GHz) y por frecuencias en la banda W (por encima de 60 GHz). En estas frecuencias, microondas y ondas milimétricas, la troposfera produce importantes efectos de propagación. El más estudiado es el efecto de la lluvia, que produce desvanecimientos muy profundos. Sin embargo, la lluvia está presente en porcentajes de tiempo pequeños, típicamente inferiores al 5% en los climas templados. El resto del tiempo, más del 95% por ejemplo en los climas mencionados, los gases y las nubes pueden causar niveles importantes de atenuación en estas frecuencias. La Tesis aporta un nuevo modelo (Modelo Lucas-Riera), consistente en un conjunto de polinomios de aproximación para realizar, en ausencia de lluvia, la estimación de determinados parámetros de propagación, partiendo de otros datos que se suponen disponibles. El modelo está basado en datos obtenidos de radiosondeos meteorológicos y modelos físicos de atenuación por gases y nubes, que son los fenómenos más relevantes en ausencia de lluvia, y tiene en cuenta las características climatológicas del emplazamiento de interés, utilizando la clasificación climática de Köppen. Este modelo es aplicable en las bandas de frecuencias entre 12 y 100 GHz (exceptuando 60 GHz), donde se aproximarían los mencionados parámetros de propagación en una frecuencia a partir de los obtenidos en otra, en el caso de la atenuación y la temperatura de brillo, o bien se estimaría la temperatura media de radiación a una determinada frecuencia partiendo de la temperatura de superficie. Con este modelo se puede obtener una aproximación razonable si se conoce la Zona Climática de Köppen de la localización terrestre para la que queremos calcular las aproximaciones y en caso de que ésta se desconozca se aporta una Zona Global, que representa toda la superficie terrestre. La aproximación que se propone para realizar el escalado en frecuencia puede ser útil en los enlaces de comunicaciones por satélite, en los que a menudo se dispone de información en relación a los parámetros de propagación a una determinada frecuencia, por ejemplo en el enlace descendente, y sería de utilidad conocer esos mismos parámetros en el enlace ascendente de cara a poder mitigar los efectos que tiene la atmósfera sobre la señal emitida (atenuación, desvanecimiento, etc). En el caso de la temperatura media de radiación, la aproximación que se propone podría ser útil de cara a la realización de medidas de radiometría, diseño de equipamiento de instrumentación o comunicaciones por satélite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente obra es un compendio de conceptos, metodologías y técnicas útiles para acometer proyectos y obras en terrenos volcánicos desde el punto de vista de la ingeniería geológica y la geotecnia. El libro se presenta en tres partes diferenciadas. La primera es conceptual y metodológica, con capítulos que tratan sobre la clasificación de las rocas volcánicas con fines geotécnicos, la caracterización geomecánica, los problemas geotécnicos y constructivos asociados a los distintos materiales, y una guía metodológica para la redacción de informes geotécnicos para la edificación. La segunda parte aborda las aplicaciones a obras de ingeniería, incluyendo deslizamientos, obras subterráneas,infraestructuras marítimas y obras públicas. La tercera parte recoge capítulos dedicados a describir distintos casos prácticos de obras y proyectos en los que la problemática geotécnica en terrenos volcánicos ha tenido un papel relevante. Los capítulos han sido elaborados por técnicos y científicos de reconocido prestigio en el campo de la ingeniería geológica en terrenos volcánicos, que han plasmado en ellos sus conocimientos y experiencias en la materia.Los editores y autores de parte de los capítulos del libro, los Doctores Luis E. Hernández Gutiérrez (Geólogo) y Juan Carlos Santamarta Cerezal (Ingeniero de Montes, Civil y Minas), son los responsables del grupo de investigación INGENIA (Ingeniería Geológica, Innovación y Aguas). Su actividad investigadora comprende más de 200 publicaciones en el área de la ingeniería geológica, la geotecnia, medio ambiente y el aprovechamiento del agua en islas y terrenos volcánicos. En relación a la docencia han impartido y dirigido más de 90 seminarios y cursos de especialización a nivel nacional e internacional, incluyendo la organización de 4 congresos internacionales. Fueron premiados por la Universidad de La Laguna en los años 2012, 2013 y 2014 por su calidad docente e innovación universitaria, y son pioneros en los laboratorios virtuales para la enseñanza de la ingeniería. Participan activamente como profesores colaboradores e investigadores en varias universidades e instituciones españolas e internacionales. Todas sus publicaciones están disponibles en internet, con libre acceso. Ingeniería geológica en terrenos volcánicos, es una obra de gran interés para, consultores, técnicos de administraciones públicas, proyectistas y demás profesionales implicados en obras y proyectos de infraestructuras en terrenos volcánicos; también es útil para académicos y estudiantes de ingeniería o ciencias geológicas que quieran investigar o iniciarse en las singularidades que presentan los materiales volcánicos en la edificación o en la ingeniería civil y minera.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este estudio se pretende caracterizar las comunidades vegetales presentes en ambientes litorales en el SE de la provincia de Alicante, mediante el cartografiado de zonas homogéneas de vegetación, mediante el empleo de los catálogos propuestos por el RAC-SPA y Medwet. De este modo, se han determinado 7 unidades ambientales en cada uno de los sectores analizados en el estudio (saladar de Urbanova y el Fondet de la Senieta), pudiendo comparar las diferencias entre ambas técnicas. Así, se seleccionaron 10 parcelas al azar y su vegetación fue muestreada según la metodología, basada en transectos, denominada «quadrat technique» y se identificaron las diferentes especies vegetales en el campo. Por otro lado, la medida de la cobertura vegetal total también fue tomada según la metodología de «Braun Blanquet». Se han empleado los programas informáticos CartaLinx® y ArcView® para el cartografiado de las unidades vegetales. Así, trabajo se pretende proporcionar herramientas técnicas y garantizar la gestión sostenible de los humedales y sus recursos naturales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se presenta un estudio y propuesta de interoperabilidad semántica entre ontologías del dominio de la salud basada en técnicas de procesamiento del lenguaje natural. El objetivo fundamental ha sido el desarrollo de un algoritmo de interconexión semántica entre los términos de dos ontologías solapadas y heterogéneas, denominadas «fuente» (Clasificación internacional de enfermedades, 9ª revisión, modificación clínica: CIE-9-MC) y «diana» (esquema jerárquico de la asignatura Enfermería Materno-Infantil: EMI). Esta propuesta permite emparejar semánticamente ontologías, a partir de la reutilización de otro recurso ontológico (WordNet español), sin destruir o modificar la semántica de identidad de cada una de las ontologías involucradas. El modelo presentado puede permitir al usuario acceder a la información que necesita en otra clasificación jerárquica, sin precisar de un entrenamiento referido a la conceptualización de cada sistema, pues utilizaría la ontología «diana» con la que está familiarizado para su aplicación a la recuperación de información.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo es el segundo de una serie de estudios que se realizó para caracterizar las comunidades vegetales presentes en ambientes litorales en el SE de la provincia de Alicante, mediante el cartografiado de zonas homogéneas y el empleo de los catálogos propuestos por el RAC-SPA y Medwet. Se han determinado 11 unidades ambientales en el sector analizado que se corresponde al Clot de Galvany y Balsares, las cuales se han descrito y se han representado en 2 mapas que permite comparar las diferencias entre ambos catálogos. De este modo, se seleccionaron 10 parcelas al azar y su vegetación fue muestreada según la metodología, basada en transectos, denominada «quadrat technique» y se identificaron las diferentes especies vegetales en el campo. Por otro lado, la medida de la cobertura vegetal total también fue tomada según la metodología de «Braun Blanquet». Se han empleado los programas informáticos CartaLinx® y ArcView® para el cartografiado de las unidades vegetales. Así, la finalidad de este trabajo es proporcionar una serie de herramientas técnicas para poder garantizar la gestión sostenible de la compleja situación de la zona de estudio, así como de sus recursos naturales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La clasificación automática de textos es ampliamente conocida y usada en multitud de situaciones. Dicha clasificación puede ser afrontada desde distintos puntos de vista, siendo uno de los más usados la clasificación por ámbito geográfico. De sobra son conocidas las clasificaciones geográficas realizadas por los buscadores de Internet y por los periódicos, las cuales agrupan un conjunto de páginas web o noticias acorde al ámbito geográfico que cubren. Por otro lado, la vigorosa aparición de las redes sociales con su lenguaje altamente informal ha hecho que las técnicas utilizadas para la clasificación geográfica automática de textos formales tengan que ser readaptadas con el propósito de obtener unos mejores resultados. En este artículo presentamos el estado actual en este campo. Así como un estudio realizado sobre la utilización de las técnicas más empleadas en la clasificación de textos informales combinando dichas técnicas con recursos de distinta índole y formalidad.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivos: 1) Proponer una nueva clasificación de los oligoelementos fundamentada en el estudio detallado de las investigaciones más recientes sobre los mismos; 2) ofrecer información detallada y actualizada sobre todos los oligoelementos. Resultados: el análisis de todos los resultados de investigación consultados pone de manifiesto que los avances en las técnicas de análisis molecular permiten dilucidar la importancia que presentan ciertos oligoelementos para la salud humana. Se ofrece un análisis detallado de la función catalítica que podrían tener determinados elementos no considerados hasta ahora como esenciales o posiblemente esenciales, gracias al uso de plataformas informáticas que permiten el análisis integrado de datos sobre enzimas. Asimismo se presenta información integrada y actualizada del papel fisiológico, cinéticas y metabolismo, fuentes dietéticas y factores que propician la carencia o la toxicidad de cada uno de los oligoelementos. Conclusiones: La Oligoterapia plantea el uso de oligoelementos catalíticamente activos con fines terapéuticos. La nueva clasificación de oligoelementos planteada en este trabajo será de interés para diversos sectores profesionales: médicos y demás personal sanitario, nutricionistas, farmacéuticos, etc. Así podrán diseñarse nuevas estrategias terapéuticas que permitan paliar la sintomatología de diversas patologías, en particular las enfermedades carenciales y metabólicas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis: «Técnicas y materiales de escritura creativa en los siglos XIX y XX: una revisión crítica» trata de responder a la cuestión acerca de la posibilidad de una didáctica efectiva de la escritura de ficción. Para responder a esta cuestión se investigan las principales propuestas sobre la práctica de la escritura de ficción en los dos pasados siglos y se propone una revisión crítica y comparatista de las mismas para intentar resolver por un lado la pregunta fundamental que se propone y, por otro, la pregunta acerca de la naturaleza y clasificación de estos materiales. La práctica totalidad de los materiales que se revisan son textos escritos por escritores de reconocido prestigio de los siglos XIX y XX. El trabajo, haciendo uso de la investigación histórica y comparatista, ofrece algunas respuestas acerca de la posibilidad del aprendizaje y didáctica de la escritura. De este estudio se deducen los principales modelos de enseñanza y aprendizaje de la escritura creativa y sus distintas posturas, así como su evolución. Asimismo se ofrece una evaluación de estos modelos y se clarifican su eficacia y su sentido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con el surgimiento de las Organizaciones No Gubernamentales a nivel mundial, y con el paso del tiempo las ONGs han tomado un papel protagonista en el que hacer humanitario, en promover la justicia social, a tal grado que actualmente las organizaciones sin fines de lucro constituyen un pilar fundamental en el fortalecimiento de los derechos sociales y cooperación a la población de escasos recursos. Organismos como la Cooperación Internacional, son organizaciones independientes de vínculos políticos o religiosos comprometidos con los valores de libertad, solidaridad, progreso y justicia social, la extensión cultural y el desarrollo institucional. Su objetivo principal es facilitar los espacios de concertación social, fortaleciendo la entidad social, como la concesión de recursos para la inversión en proyectos de desarrollo local. Por las exigencias económicas que actualmente que atraviesan las ONGs, se han implementado medidas de acción para el buen manejo de los recursos otorgados y un uso racional y eficiente de los fondos con los que cuenta con el objetivo de facilitar una mayor comprensión y comparabilidad de las partidas que se presentan en los estados Financieros, las cuales son el resultado de la toma de decisiones por parte de la administración. En vista de ello, ADEL constituye una de las organizaciones sin fines de lucro orientadas al fortalecimiento del desarrollo local del departamento de Chalatenango, enfocándose principalmente a la concesión de créditos a los micro y pequeños empresarios de la zona, así como al desarrollo de proyectos de inversión dirigidos al crecimiento de los sectores productivos del mismo. La investigación tiene como punto de partida el conocer las operaciones que se llevan a cabo en el desarrollo de una ONG, y como esta puede lograr el grado de sostenibilidad deseada para cubrir con lo compromisos y obligaciones ante terceros, sobre todo aquellos organismos internacionales donde se tiene que rendir cuentas del manejo de los fondos otorgados y presentar información financiera que debe de ir preparada en base a la exigencias actuales. Colaborando con este propósito se tomó la iniciativa de estudiar la posibilidad de implementar técnicas y procedimientos de análisis financieros que contribuyan a fortalecer la toma de decisiones y constituyan una herramienta de análisis al momento de relacionar todos aquellos factores, tanto internos como externos, que influyen significativamente en la sostenibilidad y en el crecimiento económico de la entidad. Dentro de los objetivos trazados para esta investigación se encuentran el proporcionar una guía de análisis financieros, donde se incorpore el uso de las razones financieras y se describan diferentes métodos para la aplicación del análisis financiero en particular de una ONG, haciendo referencia a datos o parámetros que constituirán la base de comparación con los objetivos alcanzados. El proceso de investigación se dividió en dos etapas; la información bibliográfica y la de campo, esta última comprende la observación de procesos, entrevistas y encuestas dirigidas al personal administrativo contable y demás personal idóneo; con el fin de obtener información del paradigma del tema en estudio. En la investigación bibliográfica se consultó literatura relacionada a las ONG así como de análisis financiero y todos aquellos textos del área legal relacionados al tema. Entre los resultados que se obtuvieron en la investigación se mencionan que la administración reconoció que será de gran ayuda la implementación de una guía de análisis financiero enfocado a la naturaleza de la entidad, además se consideró oportuno por parte de la Junta Directiva el diseño de una guía que considere todos aquellos aspectos financieros relacionados al que hacer de ADEL, contribuyendo al desarrollo de un plan estratégico enfocado en mejorar aquellas áreas débiles y poder contrastar y analizar aquellas áreas que influyen significativamente en la sostenibilidad de una Organización. Por lo que se determinó que dicho trabajo será de gran importancia para un buen desempeño de la administración de la entidad. Como resultado de la información se obtuvieron las siguientes conclusiones y Recomendaciones: Para proceder a un desarrollo de análisis financiero, en una organización no gubernamental se debe poseer un amplio y sólido conocimiento del entorno en que opera la entidad, las leyes y regulaciones aplicables a su giro o actividad; así como de las políticas y procedimientos establecidos por la administración y métodos de valuación de partidas relevantes que se presentan los Estados Financieros de la entidad. Sugerir para efectos de presentación y clasificación de las cuentas de balance tomar en cuenta que dentro de la totalidad de la cuenta cuentas por cobrar, dentro del saldo total existe la porción circulante de aquellas cuentas que se esperan realizar a corto plazo; por lo que al momento de analizar mi activo circulante se refleja un aumento considerable de ellos, debido a que no existe esa segregación de la porción circulante y la porción a largo plazo de las Cuentas por Cobrar para efectos de comparabilidad e interpretación adecuada de las cifras. De igual manera sucede con la cuenta de Patrimonio Institucional, donde se incluye el valor del superávit por Revaluación, por lo que debe de segregar se para efecto de analizar aquellos índices relacionados a la evaluación del Patrimonio. Para una mejor distribución de los recursos y que éstos proporcionen rentabilidad a la organización, se debe reestructurar o establecer nuevas políticas que permitan reducir en una cuantía razonable el % de los gastos que se incurren para la realización de las actividades de la organización, ya que esto les permitirá orientar la mayor parte de sus recursos a la inversión en Capital de Trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El manual que se propone en el trabajo presentado, brinda continuidad y énfasis a la cultura organizacional de calidad que caracteriza a las empresas certificadas con Norma ISO 9001:2000, considerando la calidad como un elemento de movilidad continua, es decir, siempre requiere de monitoreo y control para brindar conformidad a la misma. Este trabajo considera la interrelación de recursos técnicos, prácticos, elementos de eficacia y de efectividad. Se pretende brindar un manual que contenga los elementos necesarios y prácticos para el desarrollo de una auditoría a los sistemas de gestión de calidad, por lo cual se incluyen los programas principales que contiene una auditoría que aplique un examen integral a los principales requisitos que exigen las ISO 9001 y que de manera continua evalúe, no solamente la conformidad con los criterios aceptados, sino también que involucre los reglamentos normativos aplicables a las empresa que brindan servicios educativos, de tal forma que se presente una razonable seguridad sobre la correcta aplicación de los mismos. Es de vital importancia considerar que el elemento calidad es un aspecto, hasta cierto punto subjetivo y no cuantitativo, pero que, sin embargo, se concretiza con los resultados al final de un proceso arduo y continuo, que brinda satisfacción tanto a los clientes de las empresas, a las empresas, así como también al personal mismo en la institución, sin el cual no se lograrían los objetivos propuestos. Para llevar a cabo el manual que se presenta, fue necesario realizar una serie de actividades, que se concretizan en cuatro capítulos que contiene este documento. En el capítulo I se presenta el marco teórico sobre auditoría, sistemas de gestión de calidad y Auditoría de calidad, los cuales resultan de suma importancia a fin de sustentar apropiadamente el manual propuesto. En cada una de éstas variables se consideran sus generalidades, la identificación de sus conceptos, su clasificación, las características, hechos históricos sobre los mismos, entre otros elementos considerados. En el capítulo II se desarrolla el contenido de la investigación de campo que sirvió de justificación para la propuesta del manual. Dicha investigación se llevó a cabo en el área metropolitana de San Salvador, y considerando una población de empresas que hasta ese momento se identificaban como certificadas por CONACYT (Consejo de Ciencia y Tecnología), ente regulador de las mismas. Este capítulo incluye generalidades de la investigación, los objetivos de la investigación, la justificación, la metodología, la tabulación de la encuesta realizada y el análisis de la información recolectada. En el capítulo III se presenta, la propuesta del “MANUAL DE TÉCNICAS Y PROCEDIMIENTOS DE AUDITORÍA Y EL SEGUIMIENTO A LAS ACCIONES CORRECTIVAS, CON BASE A LA NORMATIVA INTERNACIONAL ISO 9001 PARA LAS EMPRESAS QUE SE DEDICAN A PRESTAR SERVICIOS EDUCATIVOS”. Dicho manual constituye una herramienta que facilita la realización de la auditoría, q u e es un elemento vital para la consecución de los objetivos, pues identifica oportunidades de mejora, realiza examen oportuno y enfatiza una seguridad en la calidad de los servicios educativos brindados. En el capítulo IV se presentan las conclusiones y recomendaciones que surgieron como resultado de la investigación de campo realizada en las empresas que brindan servicios educativos y que se encuentran certificadas con la Norma ISO 9001. Para finalizar se detalla las fuentes bibliográficas que se consultaron para realizar la investigación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

MIPs are synthetic polymers that are used as biomimetic materials simulating the mechanism verified in natural entities such as antibodies and enzymes. Although MIPs have been successfully used as an outstanding tool for enhancing the selectivity or different analytical approaches, such as separation science and electrochemical and optical sensors, several parameters must be optimized during their synthesis. Therefore, the state-of-the-art of MIP production as well as the different polymerization methods are discussed. The potential selectivity of MIPs in the extraction and separation techniques focusing mainly on environmental, clinical and pharmaceutical samples as applications for analytical purposes is presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This is a contribution that presents a translation of the work Terminology for Analytical Capillary Electromigration Techniques by Riekkola and collaborators (Pure Appl. Chem., Vol. 76, No. 2, 443-451, 2004) from IUPAC© for the Portuguese Language. Additional terms that had not been defined in native Portuguese were included for the benefit of the local community. Additional notes were also included to clarify some important concepts and to highlight the differences between techniques.