571 resultados para Normalización
Resumo:
El Consejo Nacional de Ciencia y Tecnología fue creado primordialmente como su nombre lo indica, para realizar esfuerzos encaminados al desarrollo científico y tecnológico del país, a pesar de ello en el año de 1992 se estableció como parte de las atribuciones del CONACYT, dirigir y coordinar las actividades de Normalización, Metrología, Verificación y Certificación de la Calidad. Es de esta manera como se constituye un departamento encargado de las funciones de la calidad, sin embargo, desde el principio la carencia social y cultural del país, sobre temas relacionados con esta área, fue uno de los factores que dificultó su desarrollo. No obstante, los esfuerzos internos y externos permitieron un adelanto y progreso en la formación de los servicios, realizando convenios internacionales con Instituciones que forman parte de un sistema de la calidad ampliamente estructurado, permitiendo a CONACYT protagonizar un papel importante en el Sistema Nacional de la Calidad. En la actualidad, a pesar de la posición y reconocimiento de estos servicios, aún existen mercados metas importantes, como los consumidores finales, las Instituciones educativas y la empresa privada a quienes no se les ha informado sobre estos temas, y en algunos casos llegando a considerarlos como aspectos ambiguos o desconocidos. Por tales circunstancias, se realizó un estudio de los clientes del departamento de Normalización, Acreditación y Metrología, para definir una situación actual, concreta y objetiva de la prestación de los servicios; tal investigación se ejecutó mediante un método de Investigación analítica, en el cual la información obtenida por medio de encuestas, entrevistas y observaciones en el campo fue cuantificada y trabajada estadísticamente, con lo que se realizó la Interpretación de los resultados de la Investigación. Entre los resultados principales destacan las limitaciones de recursos humanos para el desarrollo de los servicios, la falta de divulgación con los sectores externos e internos, el reducido uso de las herramientas promocionales y del Internet como medio de transmisión de la Información y la falta de un Departamento encargado de gestionar las actividades de marketing, investigación y desarrollo de mercados. Ante dichas situaciones, es que el grupo de Investigación desarrolla una propuesta de Plan estratégico de Marketing, enfocado al mejoramiento de los servicios de Normalización, Acreditación y Metrología, que permitirá dar una visión más amplia para el desarrollo y la consolidación de una Infraestructura de la Calidad en el país, que contribuya al desarrollo y competitividad de los sectores productivos y comerciales, así como también, a la formación de una sociedad pensante y culturizada en temas de la calidad, que exija a las empresas bienes y servicios garantizados y confiables basados en estándares globales y normalizados, pero para ello la población debe conocer primeramente el trabajo realizado por los servicios de la Calidad su importancia y participación en el desarrollo económico del país. Es así que el Plan propuesto se enfoca en la filosofía Interna, la proyección estratégica y el desarrollo de los servicios a partir de una estructurada mezcla de marketing enfocada en la divulgación y conocimiento a los mercados metas.
Resumo:
Actualmente en las empresas que ofrecen un servicio, es necesario que estas desarrollen sistemas orientados a la calidad para brindar un servicio que cumplan con las expectativas de sus clientes. De acuerdo a lo antes expuesto se presenta el informe final del trabajo de graduación denominado “Propuesta de Normalización Aplicando ISO 9000 en la Prestación de Servicios a los Exportadores en el Banco Central de Reserva de El Salvador” con el fin de que dicha institución asegure la eficiencia del servicio que les brinda a los exportadores en el Centro de Trámites de Exportación (CENTREX) cumpliendo con los diferentes requisitos que estos exigen. Para llevar a cabo la investigación se elaboraron tres instrumentos para recolectar información los cuales estaban dirigidos de la siguiente manera: el primero a la Alta Dirección del CENTREX, éste se encuentra estructurado bajo los apartados de la Norma ISO 9001:2000, el segundo a los exportadores activos (clientes) y el tercero al personal administrativo del CENTREX. Se seleccionó una muestra representativa de exportadores, para obtener las diferentes opiniones acerca del servicio que se les brinda. Como resultado se realizó el diagnóstico de la situación actual, el cual se ha estructurado de acuerdo al número de cuestionarios. Se logró identificar en los resultados de la encuesta fundamentada en los apartados de la Norma ISO 9001, que la Alta Dirección del CENTREX, necesitaba establecer un sistema orientado a la calidad para facilitar la actividad exportadora, basado en una normativa reconocida internacionalmente debido a que se relaciona con empresas e instituciones nacionales y extranjeras. Además se identificó que no cuentan con objetivos y política de calidad documentados, un organigrama que refleje las relaciones de autoridad y responsabilidad, no ha documentado la mayoría de procedimientos y no poseen ningún mecanismo que permita medir la satisfacción del cliente. También se denotó que la Alta Dirección no ha logrado establecer excelentes relaciones armoniosas entre el personal administrativo. Dicha situación permitió la realización de un Sistema de Gestión de la Calidad en donde se proponen los objetivos y política de la calidad, manual de calidad y los procedimientos principales, de soporte y medición, análisis y mejora cumpliendo así con los requisitos exigidos por la Norma ISO 9001:2000 para un sistema orientado a la calidad en donde su objeto principal es satisfacer las exigencias y necesidades de los clientes.
Resumo:
Objeto: Este trabajo tiene por objetivos analizar el mencionado en el POCAL (1999), en las NICSP del IPSASB y en diversas opiniones doctrinales con respecto al reconocimiento de los bienes de dominio público (BDP), así como verificar si existen problemas inherentes al reconocimiento de los BDP en Portugal, superables con la adopción de las NICSP. Diseño/metodología/Enfoque: Para este estudio, fue efectuada una revisión de literatura, de la posición del POCAL (1999), de las NICSP del IPSASB, y de la perspectiva doctrinal, con respecto al reconocimiento de los bienes de dominio público. Además, se realizó un estudio de la evolución de los valores de los bienes de dominio público, de los años 2006 a 2013, del total de los 308 municipios portugueses, para concluir acerca de la existencia de dificultades en el reconocimiento de estos activos y de la necesidad de adoptar los normativos internacionales. Aportaciones y Resultados: En algunos municipios portugueses, el proceso de inventario aún no está concluido, existiendo dificultades con respecto al reconocimiento de los BDP. Dichas dificultades resultan de que el POCAL (1999) no presenta los requisitos para el reconocimiento de los activos; problema superado en la NICSP nº 17 del IPSASB (2006b), que refiere esos requisitos. Adoptar un nuevo Sistema de Normalización Contable aplicable a la Administración Pública (SNC-AP), basado en las NICSP, puede ser la solución para dichas cuestiones, introduciendo criterios a considerar en el reconocimiento de los activos, que aseguren la comparabilidad de la información y de los valores del patrimonio de los municipios portugueses. Limitaciones: La inexistencia de criterios de reconocimiento a seguir por los municipios trae limitaciones al nivel de la comparabilidad de los valores de los diferentes componentes del activo presentados por los varios municipios. Valor añadido: Este trabajo nos enseña que, en Portugal, aún existen problemas con respecto al reconocimiento de los bienes de dominio público, en resultado de la inexistencia de una definición precisa de los criterios de reconocimiento, lo que puede ser superado con la adopción de un nuevo SNC-AP.
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas. Orientada por Prof. Dra. Maria Rosário Moreira e Prof. Dr. Paulo Sousa
Resumo:
La disponibilidad del sistema Ultramicroanalítico (SUMA) y de un antígeno especie-específico del M. leprae obtenido mediante síntesis química, permitió la normalización y validación de un ultramicroELISA para la detección de anticuerpos IgM específicos a esta micobacteria. El análisis de 433 sueros de banco de sangre y 265 sueros usados para validar el método y clasificados en un grupo control de donantes de banco de sangre (100), un grupo de pacientes tuberculosos (50), un grupo de enfermos de lepra (65) y un grupo de contactos de estos enfermos (50), mostró la especificidad del ensayo para evidenciar la infección con el M. leprae. Los resultados obtenidos del estudio adicional de 140 muestras de suero de contactos de enfermos estuvieron estrechamente correlacionados (r = 0,98) con los resultados obtenidos por la técnica de microELISA convencional. La utilización del SUMA no solo permite un notable ahorro de reactivos si no además facilita la lectura, cálculo, validación y almacenamiento automático de los resultados.
Resumo:
The prevalence of obesity is increasing throughout the workforce. Manual lifting tasks are common and can produce significant muscle loading. This study compared muscular activity between obese and non-obese subjects, using surface Electromyography (EMG), during manual lifting. Six different lifting tasks (with 5, 10 and 15 kg loads in free and constrained styles) were performed by 14 participants with different obesity levels. EMG data normalization was based on the percentage of Maximum Contraction during each Task (MCT). Muscle Activation Times (AT) before each task were also evaluated. The study suggests that obesity can increase MCT and delay muscle AT. These findings reinforce the need to develop further studies focused on obesity as a risk factor for the development of musculoskeletal disorders.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
Numerosos estudios sugieren que los efectos conductuales y neuroquímicos del etanol y las benzodiazepinas (BDZs) están estrechamente relacionados. La administración aguda de BDZs y etanol potencia el efecto del GABA, sugiriendo que ambas drogas producirían efectos depresores del sistema nervioso central por incremento de la neurotransmisión GABAérgica. La administración prolongada de etanol y BDZS produce tolerancia a alguno de los efectos agudos tanto de la droga primaria, como de un agente relacionado (tolerancia cruzada). Este hecho se ha observado tanto en humanos como en animales. La interrupción del tratamiento crónico con dichas drogas provoca la aparición del síndrome de abstinencia. (...) Considerando que la ansiedad es un factor crítico tanto en la abstinencia a BDZs como en la génesis y mantenimiento del alcoholismo y que la abstinencia a diazepam podría provocar alteraciones a largo plazo en la capacidad de adaptación al estrés, se podría hipotetizar que esos efectos podrían estar implicados en la recurrencia al consumo de BDZs, etanol u otras drogas de abuso, luego de la interrupción de un tratamiento crónico. De lo anteriormente expuesto se deduce que fármacos que normalicen potenciales alteraciones en los mecanismos adaptativos frente al estrés podrían ser de utilidad para revertir las alteraciones observadas durante la expresión del sindrome de abstinencia inducido por etanol y BDZs. En relación a este tema, hemos demostrado recientemente que carbamazepina (CBZ), droga efectiva para el tratamiento del sindrome de abstinencia inducido por BDZs y etanol, revierte las alteraciones conductuales y neuroquímicas descriptas en animales con abstinencia a BDZs. Estos resultados sugieren que el tratamiento con dicho fármaco podría ser de utilidad terapéutica para la normalización de las alteraciones inducidas por la interrupción del consumo. Objetivos El objetivo general del presente proyecto es investigar una posible facilitación del desarrollo de dependencia al etanol en animales previamente sometidos a la abstinencia de benzodiazepinas. Este objetivo se extiende al estudio de nuevas alternativas terapéuticas que tengan capacidad potencial para revertir las alteraciones producidas por la abstinencia a etanol.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.
Resumo:
Un dels principals problemes de la interacció dels robots autònoms és el coneixement de l'escena. El reconeixement és fonamental per a solucionar aquest problema i permetre als robots interactuar en un escenari no controlat. En aquest document presentem una aplicació pràctica de la captura d'objectes, de la normalització i de la classificació de senyals triangulars i circulars. El sistema s'introdueix en el robot Aibo de Sony per a millorar-ne la interacció. La metodologia presentada s'ha comprobat en simulacions i problemes de categorització reals, com ara la classificació de senyals de trànsit, amb resultats molt prometedors.
Resumo:
JPEG2000 és un estàndard de compressió d’imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.
Resumo:
Amb la finalitat de conèixer l’estat de qualitat de les aigües de les basses i pous del Parc del Garraf, s’analitzen una sèrie de paràmetres fisico-químics en 17 estacions de mostreig prèviament seleccionades, distribuïdes en zones amb diferents tipologies d’ús del sòl. La base de l’anàlisi ha estat la integració d’informació provinent de diferents fonts. Mitjançant l’elaboració de taules i gràfics, la generació de cartografia i el tractament estadístic de les dades, s’ha procedit a la tria de punts de mostreig i s’ha obtingut un inventari que ha permès la interpretació global dels resultats, facilitant la diagnosi. El procés de tractament de dades inclou la confecció d’un índex de qualitat de les aigües (ICA) propi, no vinculant, a partir de fórmules genèriques de normalització i ponderació de valors. Durant la realització de la diagnosi s’han detectat pertorbacions puntuals en determinats paràmetres corresponents a contaminacions locals, en diferents estacions de mostreig. Aquestes pertorbacions s’han relacionat amb la situació dels pous i les basses al Garraf i les tipologies d’ús del sòl de cada zona. El diagnòstic de pertorbacions ha orientat les propostes de millora aplicables que s’han dividit en tres classes segons el nivell d’actuació. Aquestes incideixen principalment, en la millora de la informació disponible, l’aplicació de l’agricultura ecològica, l’explotació sostenible dels aqüífers i la realització d’estudis globals i/o locals, més complets i exhaustius.
Resumo:
TFC sobre normalització del volum d'arxius MP3, emmarcat dins d'un projecte més ampli que inclou la lectura d'arxius MP3, la modificació per a implementar-ne el guany i el desenvolupament d'una interfície d'usuari que permeti aplicar la normalització a fitxers MP3. La part que s'ha elaborat és la fase intermèdia, consistent en el càlcul del guany de volum que caldria aplicar a un arxiu de so per a aconseguir normalitzar-ne el volum.
Resumo:
Aquest projecte es pot dividir en tres parts: una primera part d'extracció dels components freqüencials de les trames d'arxius MP3, una segona part d'anàlisi i càlcul d'un factor de normalització a partir de les dades dels components freqüencials de diversos arxius MP3, i una última part amb la modificació correcta dels guanys de les trames dels arxius MP3 a partir del factor de normalització generat en la part anterior. En aquest treball de final de carrera s'implementen la primera i la tercera de les parts descrites anteriorment.