971 resultados para Administración de la calidad
Resumo:
El propósito es compartir una experiencia de gestión de la Biblioteca Mayor de la Universidad Nacional de Córdoba, a través de la implementación de las normas ISO 9001: 2008, adoptando una nueva filosofía comprometida con los principios de la calidad y en la optimización del aprendizaje organizacional, orientado a dar respuestas a las necesidades de los usuarios por medio de servicios basados en innovaciones tecnológicas y bibliotecológicas. Este trabajo se basa en un estudio de caso describiendo los componentes del sistema, enriquecido con aportes de entrevistas personalizadas pertenecientes a distintos sectores involucrados con el proceso de certificación de la Biblioteca. Se analizan los obstáculos encontrados y los logros obtenidos basados en la mejora continua de los servicios. La obtención de una certificación no constituye un fin, sino es el comienzo de un proceso constructivo enmarcado en una cultura de la calidad, con una dinámica nueva de gestión que permite evaluar lo que se hace y como se hace.
Resumo:
En este estudio se expone una de las actividades llevadas a cabo en la asignatura “Administración de la Empresa Familiar”. Esta práctica se realiza utilizando distintas metodologías docentes afines al Espacio Europeo de Educación Superior: la lección magistral, el estudio de casos y el aprendizaje cooperativo, combinando además estos métodos con un análisis comparativo entre empresas y la técnica de la entrevista en profundidad. El objetivo perseguido es acercar al estudiante a la realidad empresarial que le rodea, en el que el 85 1 por ciento de las empresas son familiares. Se pretende que el estudiante comparta experiencias y se integre durante unas horas en una empresa familiar para que conozca su funcionamiento y pueda aplicar, en la práctica, lo que en teoría se explica en el aula. Además, se intenta que la búsqueda de información sobre la empresa elegida, el contacto que el estudiante mantenga en la entrevista así como la elaboración del informe que el estudiante tendrá que elaborar después, despierte en el alumno el interés por la investigación.
Resumo:
La bioseguridad en la producción de huevos pretende limitar la entrada de gérmenes en una granja, evitar que se multipliquen y difundan los que están dentro y tratar de eliminarlos, así como aumentar la resistencia de los animales a las enfermedades. Un correcto manejo de las instalaciones y de los animales reducirá las posibilidades de infección.
Resumo:
Una de las maneras de garantizar ante terceros un producto o servicio de calidad es mediante los Certificados de Producto o de Servicio que se pueden obtener por la implantación de Sistemas de Gestión de la Calidad en base a las Normas ISO 9000. En la actualidad continúa abierto, desde antes de la entrada en vigor de la Ley de Ordenación de la Edificación, el debate entre el colectivo de Aparejadores, Arquitectos Técnicos e Ingenieros de Edificación españoles, sobre la manera de aplicar estos sistemas para regular, procedimentar y garantizar los servicios del Director de Ejecución de Obra. El consejo General de la Arquitectura Técnica en España ha editado varias guías que intentan animar al colectivo a agruparse en Sociedades Profesionales y a implantar en ellas Sistemas de Gestión de la Calidad de acuerdo a la Norma ISO 9001, la última en 2008. Se ha realizado un estudio mediante el análisis de una encuesta a una muestra de la población de Constructores, Promotores, Directores de Obra y Directores de Ejecución de Obra, que pone de manifiesto que los intentos de promover estas prácticas no han dado resultado en el colectivo.Por otra parte, el sector de la Construcción tiene unas características muy especiales que le hacen diferente al resto de Industrias y una de las que más dificultades entraña a la hora de que los Sistemas de Gestión de la Calidad puedan ser efectivos es la falta de coordinación entre los diferentes intervinientes en la fase de construcción: Promotor, Constructor, Director de Obra y Director de Ejecución de Obra. Esta labor de integración la desarrollan en muchas ocasiones las empresas de Project Management. Sin embargo no todas las obras pueden asumir el coste adicional que supone este servicio, pudiendo en estos casos ser el Director de Ejecución de Obra el que lidere el proceso edificatorio. Por estas razones, en esta ponencia se defiende el desarrollo de un Modelo Integrador de Sistema de Gestión de la Calidad que facilite estas relaciones, que integre los esfuerzos de todos y que además pueda servir de base para establecer los requisitos para la certificación de los Servicios de Dirección de Ejecución de Obra, bien sea a través de una Empresa de Servicios Profesionales o como Profesional Liberal.
Resumo:
Uno de los pilares fundamentales que defienden el grupo de Normas ISO 9000 para garantizar la eficacia y eficiencia de los Sistemas de Gestión de la Calidad es la Mejora Continua. Para llevar a cabo el proceso de Mejora Continua es preciso empezar detectando y analizando donde estamos fallando y qué podemos mejorar. Organizaciones como PMI® asignan a esta actividad un proceso propio, que llaman también Lecciones Aprendidas y debe estar presente siempre, en todos los proyectos, ya que sólo conociendo nuestros fallos y analizando sus causas podemos tomar acciones preventivas que eviten que vuelvan a repetirse. Desafortunadamente, la experiencia práctica nos dice que, en la mayoría de los casos, esta actividad o no se ejecuta, o no se realiza de forma eficaz. La primera actividad que debería llevarse a cabo para detectar y analizar donde estamos fallando es la inspección del producto, en nuestro caso el edificio de viviendas, y realizar un listado de los defectos encontrados. Esta tarea, que debería realizarla la empresa constructora y ser supervisada por la Dirección de Ejecución de Obra, generalmente, no se realiza con el rigor suficiente que permita entregar al usuario su vivienda sin defectos aparentes. Se consideran repasos de postventa, dejando en el usuario final la responsabilidad de verificar el correcto acabado del producto que acaba de adquirir y que en la mayoría de los casos será la compra de mayor importe que realice en su vida. Cuando adquirimos cualquier objeto, un coche, un televisor, un teléfono móvil, etc., el fabricante es el responsable de verificar que el producto que está entregando al cliente o al suministrador no tiene daños o defectos aparentes. Sin embargo, cuando compramos una vivienda es el comprador o usuario final el que realiza, en la mayoría de los casos, esta verificación.
Resumo:
..el reto...de acomodar en nuestro sistema eléctrico las energías renovables… con una gran variabilidad en su aportación en función de las condiciones climáticas y, por tanto, con menor firmeza a la hora de asegurar el equilibrio instantáneo entre la producción y el consumo, que constituye un principio sagrado de la estabilidad de los sistemas eléctricos”..La frecuencia de un sistema eléctrico convencional, basado en máquinas sincrónicas, resulta del equilibrio entre las potencias activas generada y consumida. Así, partiendo de una situación estable (potencia consumida igual a generada, y frecuencia igual a la de referencia) la frecuencia tiende a subir cuando se produce un superávit de potencia, es decir, cuando la generación crece por encima de la demanda y, viceversa, tiende a bajar cuando se produce un déficit de potencia. El andar de un coche puede servir de símil: si circulamos por una recta a velocidad constante (la potencia del motor es igual a la disipada en rozamiento con el aire y con el asfalto que, a su vez, es proporcional a la velocidad) y llegamos a una cuesta arriba la velocidad tiende a reducirse (ahora, la potencia del motor es igual a la disipada en rozamiento más la de elevación del coche en contra de la gravedad. Esta última hace que, si la potencia del motor se mantiene igual que antes, la disponible para disipar en rozamiento sea forzosamente menor y el coche vaya más despacio) y para compensar este efecto es necesario pisar el acelerador (ahora la potencia del motor crece, permitiendo compensar la de elevación y mantener constante la de rozamiento). El símil se establece equiparando la velocidad a la frecuencia, la potencia del motor a la potencia generada, y la potencia disipada en rozamiento y en elevación a la potencia consumida.
Resumo:
Las aves, al igual que el resto de animales monogástricos no precisan de un nivel de proteína bruta (PB) en el pienso sino de niveles adecuados de aminoácidos (AA) indispensables (Keshavarz and Austic, 2004; Junqueira et al., 2006; Novak et al., 2006). Sin embargo, en la práctica es frecuente que los nutricionistas soliciten niveles de PB en exceso de lo recomendado por el NRC (1999) o FEDNA (2008). De hecho, muchos nutricionistas formulan piensos para inicio de puesta en gallinas rubias con más de 18.5% PB, cuando niveles de 16.5% PB podrían ser adecuados. La razón de utilizar niveles altos de PB es desconocido pero podría estar relacionado con el mayor margen de seguridad lo que evitaría que un aminoácido (AA) indispensable no contemplado afecte al tamaño del huevo y a la productividad. Por contra, un nivel alto de PB aumenta el precio del pienso cuando el coste de las fuentes proteicas es elevado. La inclusión de grasa en el pienso mejora el tamaño del mismo y puede mejorar el peso vivo de las aves (FEDNA, 2008). Un problema de la industria productora de huevos es el relacionado con el peso inicial de las pollitas y su influencia sobre las diversas variables productivas. El PV de las aves podría verse afectado por las características del pienso. El objetivo de este ensayo fue estudiar la influencia del nivel proteico de piensos isonutritivos en relación con la EMAn y los aminoácidos indispensables, sobre la productividad en gallinas rubias.
Resumo:
Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).
Resumo:
Debido a la necesidad de gestionar los nuevos modelos de negocios de las clínicas dentales y la demanda de nuevos servicios requeridos por el paciente, el conocimiento sobre la “calidad del servicio” del sector dental necesita ser ampliado. En la evaluación de la calidad del servicio dental y sanitario, al paciente le es difícil valorar los aspectos técnicos (calidad técnica). El paciente (cliente) de estos servicios se diferencia de otros clientes por su renuencia a recibir el servicio (tratamiento). En la investigación sobre calidad del servicio dental, desde la perspectiva del marketing, existe una tendencia a centrarse en la relación entre las expectativas del paciente y la calidad del servicio, así como también, en investigar el servicio al cliente y el pronto servicio (responsiveness), siendo el SERVQUAL el instrumento más utilizado. También, desde la perspectiva del dentista, se ha investigado sobre la satisfacción del cliente, incluso como sinónimo de calidad. En este artículo, proponemos la configuración del sector dental español y la tipología de las clínicas dentales españolas para luego identificar una serie de líneas de investigación relevantes: enseñar al paciente a evaluar la calidad técnica de la clínica dental, enseñar al dentista a demostrar su calidad técnica, determinar diferencias -en la evaluación de la calidad del servicio del paciente- cuando su enfermedad es grave y cuando no lo es, determinar cuánto afecta la renuencia del paciente a la percepción de la calidad del servicio, entre otras
Resumo:
En este trabajo se ha evaluado la hoja correspondiente a la 1074 del Mapa Topográfico Nacional (Tahivilla) o 13-47 de la “serie L” (1:50.000) según la denominación del Centro Geográfico del Ejército de Tierra en tres formatos distintos; formato en impreso en papel, formato raster, y formato vectorial. Con este Proyecto Fin de Carrera se pretende desarrollar una metodología adecuada para el control de calidad en la exactitud posicional de la serie L del Centro Geográfico del Ejército de Tierra (C.E.G.E.T.), así como aplicar, ampliar y afianzar los conocimientos adquiridos a lo largo de los cursos de la titulación de Ingeniero Técnico en Topografía. Se debe mencionar la necesidad de realizar este tipo de controles a la cartografía editada en los distintos formatos, ya que se pueden obtener enseñanzas que afecten al flujo de producción, además de cumplir los estándares marcados por la alianza para los centros productores de cartografía de los países miembros de la OTAN. Según el estudio expuesto en este proyecto, se puede afirmar que el control de calidad de la exactitud posicional según lo recogido en el STANAG 2215, “Evaluation of land maps, aeronautical charts and digital topographic data”, la clasificación OTAN para dicha serie, es AA-M10. La hoja de “Tahivilla” se eligió por se una de las últimas editadas por el CEGET, y por responder a unas características generales representaticas de la serie L. El Proyecto Fin de Carrera, está dirigido a todos los expertos en la materia, personal docente y alumnos de Ingeniería Técnica en Topografía y alumnos de Grado en Ingeniería Geomática y Topografía. Este proyecto se realiza como parte del control de calidad que el CEGET realiza a la serie L. En concreto de la última edición publicada en el año 2010. Además, la Escuela Técnica Superior de Ingenieros en Topografía Geodesia y Cartografía mediante el convenio firmado con el CEGET, se compromete a colaborar activamente con dicho Centro en las necesidades que cada Proyecto Fin de Carrera surja de este convenio.
Resumo:
Esta tesis tiene dos objetivos generales: el primero, analizar el uso de proteínas del endospermo y SSRs para la racionalización de las colecciones de trigo, y el segundo, estudiar la influencia de las proteínas del endospermo, del año de cultivo y del abonado nitrogenado en la calidad en un grupo de variedades locales españolas. Dentro del primer objetivo, se estudió la diversidad genética de la colección de Triticum monococcum L. (escaña menor), y de una muestra de la colección de Triticum turgidum L. (trigo duro) del CRF-INIA, con 2 y 6 loci de gliadinas, y 6 y 24 SSRs, para la escaña menor y el trigo duro, respectivamente. Ambas colecciones presentaron una gran diversidad genética, con una gran diferenciación entre las variedades y pequeña dentro de ellas. Los loci de gliadinas mostraron una gran variabilidad, siendo los loci Gli-2 los más útiles para distinguir variedades. En la escaña menor, las gliadinas presentaron mayor poder de discriminación que los SSRs; aunque en trigo duro los SSRs identificaron más genotipos. El número de alelos encontrado fue alto; 24 y 38 en gliadinas, y 29 y 203 en SSRs, en escaña menor y trigo duro, respectivamente. En trigo duro, se identificaron 17 alelos nuevos de gliadinas lo que demuestra que el germoplasma español es muy singular. En ambas especies, se detectaron asociaciones entre la variación alélica en prolaminas y el origen geográfico y filogenético de las variedades. La utilidad de las proteínas (6 loci de gliadinas, 2 loci de gluteninas y proteína total) y de los SSRs (24 loci) para verificar duplicados, y analizar la variabilidad intraaccesión, se estudió en 23 casos de duplicados potenciales de trigo duro. Los resultados indicaron que tanto los biotipos como las accesiones duplicadas mostraban el mismo genotipo en gliadinas, pocas diferencias o ninguna en las subunidades de gluteninas HMW y proteína total, y diferencias en menos de tres loci de SSRs. El mismo resultado se obtuvo para los biotipos de la colección de T. monococcum. Sin embargo, las discrepancias observadas en algunos casos entre proteínas y SSRs demostraron la utilidad del uso conjunto de ambos tipos de marcadores. Tanto las proteínas como los SSRs mostraron gran concordancia con los caracteres agro-morfológicos, especialmente cuando las diferencias entre los genotipos eran grandes. Sin embargo, los caracteres agro-morfológicos fueron menos discriminantes que los marcadores moleculares. Para el segundo objetivo de la tesis, se analizó la variación alélica en siete loci de prolaminas relacionados con la calidad en trigo duro: Glu-A1 y Glu-B1 de gluteninas HMW, Glu-A3, Glu-B3 y Glu-B2 de gluteninas B-LMW, y Gli-A1 y Gli-B1 de gliadinas. La submuestra analizada incluía variedades locales de todas las provincias españolas donde se ha cultivado tradicionalmente el trigo duro. Todos los loci, excepto el Glu-B2, mostraron gran variabilidad genética, siendo los Glu-3 los más polimórficos. En total, se identificaron 65 alelos, de los que 29 eran nuevos, que representan una fuente importante de variabilidad genética para la mejora de la calidad. Se detectaron diferencias en la composición en prolaminas entre la convar. turgidum y la zona norte, y la convar. durum y la zona sur; el genotipo Glu-B3new-1 - Gli-B1new-1 fue muy común en la convar. turgidum, mientras que el Glu-B3a - Gli-B1c, asociado con mejor calidad, fue más frecuente en la convar. durum. En la convar. turgidum, se observó mayor variabilidad que en la convar. durum, principalmente en los loci Glu-B1 y Glu-B3, lo que indica que esta convariedad puede ser una fuente valiosa de nuevos alelos de gluteninas. Esta submuestra fue evaluada para calidad (contenido en proteína, P, y test de sedimentación, SDSS) con dos dosis de abonado nitrogenado (N), y en dos años diferentes. No se detectaron interacciones Variedad × Año, ni Variedad × N en la calidad. Para la P, los efectos ambientales (año y N) fueron mayores que el efecto de la variedad, siendo, en general, mayor la P con dosis altas de N. La variedad influyó más en el test SDSS, que no se vio afectado por el año ni el N. El aumento del contenido en proteína no influyó significativamente sobre la fuerza del gluten estimada con el SDSS. Respecto a la influencia de las prolaminas en la fuerza del gluten, se confirmó la superioridad del Glu-B3a; aunque también se detectó una influencia alta y positiva de los alelos nuevos Glu-A3new-1, y Glu-B3new-6 y new-9. La no correlación entre el rendimiento (evaluado en un trabajo anterior) y la P, en las variedades adaptadas a bajo N, permitió seleccionar cuatro variedades locales con alto rendimiento y buena fuerza del gluten para producción con bajo N. SUMMARY There are two main objectives in this thesis: The first, to analyse the use of endosperm proteins and SSRs to rationalize the wheat collections, and the second, to study the influence on quality of endosperm proteins, year and nitrogen fertilization in a group of Spanish landraces. For the first objective, we studied the genetic diversity of the collection of Triticum monococcum L. (cultivated einkorn), and of a sample of the collection of Triticum turgidum L. (durum wheat) maintained at the CRF-INIA. Two and 6 gliadin loci, and 6 and 24 SSRs, were used for einkorn and durum wheat, respectively. Both collections possessed a high genetic diversity, being the differentiation large between varieties and small within them. Gliadin loci showed great variability, being the loci Gli-2 the most useful for distinguish among varieties. In einkorn, the gliadins showed higher discrimination power than SSRs; although SSRs identified more genotypes in durum wheat. Large number of alleles were found; 24 and 38 in gliadins, and 29 and 203 in SSRs, for einkorn and durum wheat, respectively. In durum wheat, 17 new alleles of gliadins were identified, which indicate that Spanish durum wheat germplasm is rather unique. Some associations between prolamin alleles and geographical and phylogenetic origin of varieties were found in both species. The value of endosperm proteins (6 gliadin loci, 2 glutenin loci and total protein) and SSRs (24 loci) for validation of duplicates, and monitoring the intra-accession variability, was studied in 23 potential duplicates of durum wheat. The results indicated that biotypes and duplicated accessions showed identical gliadin genotype, few or none differences in HMW glutenin subunits and total protein, and less than three different SSR loci. A similar result was obtained for biotypes of T. monococcum. However, the discrepancies in some cases support the convenience to use together both marker systems. A good concordance among endosperm proteins, agro-morphological traits and SSRs were also found, mainly when differences between genotypes were high. However, agro-morphological traits discriminated less between accessions than molecular markers. For the second objective of the thesis, we analysed the allelic variation at seven prolamin loci, involved in durum wheat quality: Glu-A1 and Glu-B1 of HMW glutenin, Glu-A3, Glu-B3 and Glu-B2 of B-LMW glutenin, and Gli-A1 and Gli-B1 of gliadin. The subsample analysed included landraces from all the Spanish provinces where the crop was traditionally cultivated. All the loci, except for Glu-B2, showed high genetic variability, being Glu-3 the most polymorphic. A total of 65 alleles were studied, 29 of them being new, which represent an important source of variability for quality improvement. Differences in prolamin composition were detected between convar. turgidum and the North zone, and the convar. durum and the South zone; the genotype Glu-B3new-1 - Gli-B1new-1 was very common in the convar. turgidum, while the Glu- B3a - Gli-B1c, associated with better quality, was more frequent in the convar. durum. Higher variability was detected in the convar. turgidum than in the convar. durum, mainly at the Glu-B1 and Glu-B3, showing that this convariety could be a valuable source of new glutenin alleles. The subsample was evaluated for quality (protein content, P, and sedimentation test, SDSS) with two doses of nitrogen fertiliser (N), and in two different years. No significant Variety x Year or Variety x Nitrogen interactions were detected. For P, environmental (year and N) effects were higher than variety effect, being P values , in general, larger with high dose of N. The variety exhibited a strong influence on SDSS test, which was not affected by year and N. Increasing values of P did not significantly influence on gluten strength, estimated with the SDSS. Respect to the prolamin effects on gluten strength, the superiority of Glu-B3a was confirmed; although a high positive effect of the new alleles Glu-A3new-1, and Glu-B3new-6 and new-9 was also detected. The no correlation between yield (evaluated in a previous research) and P, in the landraces adapted to low N, allowed to select four landraces with high yield and high gluten strength for low N production.
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
El presente documento muestra el desarrollo de la Tesis Doctoral denominada “Metodología de Aseguramiento de la Calidad en el proceso de Adquisición de Software, incluyendo las dimensiones de Proceso y de Producto (MACADPP)”. Esta investigación busca solucionar el problema actual que enfrentan las organizaciones que adquieren productos de software, asociado a la pérdida de control sobre la calidad del proceso desarrollado por su proveedor, lo que genera la obtención de un producto de software también de baja calidad. La solución propuesta, se basa en una metodología, especificada a través de etapas y tareas a realizar por parte del adquiriente y del proveedor, que permite incorporar en los proyectos de adquisición de software, las buenas prácticas recomendadas por reconocidos modelos y estándares, tales como CMMI-ACQ, ISO 9126, PRINCE2, entre otros. Esta estrategia multimodelo utilizada, permitió generar un conjunto de activos de procesos que apoyan el desarrollo de las tareas sugeridas. Cada activo generado toma en consideración las recomendaciones de calidad sugeridas para los distintos productos de trabajo. La propuesta fue utilizada en un caso real, a través del diseño y desarrollo de un experimento en la adquisición de un producto de software a la medida para el Jardín Infantil (Guardería) Takinki, en la ciudad de Antofagasta, Chile. Como resultado de este experimento, se obtuvo una mejora en el proceso de adquisición, logrando una menor tasa de errores en el producto, una planificación más acertada y un aumento en la satisfacción del cliente. Lo anterior permitió validar la hipótesis de trabajo inicial. Como aportaciones del trabajo realizado, se obtuvieron los siguientes méritos: Identificación de patrones de proyectos de adquisición de software, artículos científicos presentados en eventos internacionales, ponencias, y la generación de nuevos proyectos de investigación que dan continuidad a la investigación desarrollada.
Resumo:
Construcción de un instrumento de verificación de la calidad de portales y redes de investigación de carácter científico en Internet