999 resultados para Optimização robusta
Resumo:
En la minería de carbón se presenta exposición prolongada a polvo de carbón y a polvo de sílice en diferentes porcentajes, encontrándose una asociación con las alteraciones obstructivas, bronquitis crónica, Neumoconiosis de los trabajadores de carbón y Silicosis. Se han establecido varias formas de estimar el riesgo de desarrollar dichas enfermedades respiratorias no malignas secundarias a la exposición a estos polvos (carbón y sílice) en el ámbito ocupacional, siendo el cálculo de la exposición acumulada, la que ha demostrado mayor utilidad. Con el fin de establecer el riesgo de desarrollar alteraciones funcionales, a partir de la exposición acumulada de polvo respirable - y en los trabajadores de una empresa de minería a cielo abierto en Colombia, se estructuró este estudio de cohorte. Se contó con el registro de 566 trabajadores distribuidos en 29 Grupos de Exposición Similar (GES). El cálculo de la dosis acumulada se realizó considerando las medianas de exposición para cada GES y el tiempo de exposición de cada trabajador. Y posteriormente se estimó el riesgo empleando una regresión de poisson con varianza robusta. Los resultados más importantes del estudio muestran la exposición acumulada en niveles inferiores a los reportados en la literatura, sin embargo se encuentra un riesgo ligeramente elevado, IRR 1.000124 (IC95% 1 - 1.000248) en los expuestos, estimando que por cada unidad de medición de la exposición acumulada que se incremente, el riesgo de que aparezca una alteración respiratoria funcional se incrementa en 1.000124 veces entre los trabajadores expuestos y los no expuestos.
Resumo:
Se construye un sistema inteligente de tutoría. Se analiza la situación de la ciencia cognitiva elaborando modelos operativos de ella. Se construye una arquitectura flexible y robusta mediante dos sistemas expertos cooperantes: el primero asume la tarea de analizar constantemente la situación del estudiante y la información que genera durante las distintas sesiones de aprendizaje con la máquina; el segundo aconseja y actua para optimizar el proceso de aprendizaje desde el punto de vista de la didáctica general, sin considerar en concreto las distintas materias. El tutor inteligente (ETI) opera en un entorno conectado o relacionado con diferentes cursos de enseñanza tutorizada por ordenador. Se analizan las funciones tutoriales y su instrumentalización; ETI ha asumido directamente algunas estrategias de aprendizaje y otras han pasado a los cursos. ETI también tiene por misión diagnosticar y solucionar diferentes problemas incluyendo algunos de motivación del estudiante. Tras construirse el primer prototipo se realizaron diversas pruebas con la ayuda de un simulador que permite la introducción de datos similares a los que el estudiante genera automáticamente durante sus sesiones de aprendizaje.
Resumo:
Resumen tomado de la publicación
Resumo:
Se resumen los actos conmemorativos del V centenario del nacimiento de Isabel la Católica, que comenzaron el día 22 de abril de 1951. Se abrieron con un discurso pronunciado por el Ministro de Educación Nacional, D. José Ibáñez Martín, en el Colegio de Aragón de Zaragoza, en el que trato, entre otros temas de la unidad política y de España que lograron los Reyes Católicos; de la unidad religiosa en el estado español desde la época de los Reyes Católicos hasta la actualidad; analizó la labor cultural fraguada por los Reyes Católicos a la tranquila sombra de una fe robusta y de un gobierno férreo por la suma de creencias, hábitos sociales, ideas y afectos que dieron energía y orientación al hombre español del Renacimiento. Finalizó su exposición comparando por semejanza, la grandeza conseguida por España en la época de los Reyes Católicos con lo conseguido hasta la fecha del régimen franquista.
Resumo:
Esta tesis contribuye, te??rica y emp??ricamente, a entender hasta qu?? punto el problema de endogeneidad, uno de los principales problemas observado frecuentemente en los procesos de producci??n educativos, afecta a la estimaci??n de la eficiencia t??cnica mediante el An??lisis Envolvente de Datos (DEA). Asimismo, esta investigaci??n combina ideas de la literatura de evaluaci??n de impacto con las t??cnicas de medici??n de eficiencia no param??tricas con el fin de aportar potenciales soluciones para hacer frente a este problema en aplicaciones emp??ricas educativas y obtener as?? estimaciones de la eficiencia m??s precisas. El cap??tulo 1 analiza te??ricamente en qu?? medida la presencia de endogeneidad en el proceso de producci??n puede afectar a las estimaciones DEA en muestras finitas, de modo que los investigadores que aplican esta t??cnica conozcan la precisi??n de sus estimaciones. Para ello, en primer lugar se ilustra desde un punto de vista conceptual el problema de la endogeneidad y sus implicaciones en la estimaci??n de la eficiencia. En segundo lugar, utilizando datos generados en un experimento de Monte Carlo se eval??a c??mo diferentes niveles de endogeneidad positiva y negativa pueden afectar al desempe??o de DEA. A pesar de que DEA es robusto a la presencia de endogeneidad negativa, la existencia de una endogeneidad positiva y significativa perjudica gravemente el desempe??o de DEA. A partir de los resultados hallados previamente, la siguiente pregunta que surge es ??c??mo hacer frente a este problema en una aplicaci??n emp??rica cuando se sospecha de la presencia de este tipo de endogeneidad? Esto implica responder dos cuestiones, c??mo identificar el problema y c??mo enfrentarlo. A partir de las simulaciones de Monte Carlo se propone un m??todo heur??stico sencillo que permite identificar correctamente la presencia de inputs end??genos en todos los escenarios simulados. Adem??s, a partir de la t??cnica de Variables Instrumentales (VI) ampliamente utilizada en econometr??a, se ofrece una nueva estrategia que aborda efectivamente el problema de endogeneidad en la estimaci??n de la eficiencia t??cnica, el instrumental Input DEA Adicionalmente a este ejercicio te??rico. Los cap??tulos 2 y 3 proporcionan evidencia de dos aplicaciones emp??ricas en el que el problema de endogeneidad est?? presente. En el cap??tulo 2 se aplican las estrategias propuestas en el cap??tulo 1 a datos de colegios p??blicos de Educaci??n Secundaria en Uruguay. tilizando el m??todo heur??stico, se detecta que el nivel socio-econ??mico medio de los colegios est?? alta y positivamente relacionado con la eficiencia t??cnica de los mismos, y por lo tanto se aplica la estrategia II-DEA para estimar la eficiencia t??cnica de los colegios controlando por endogeneidad. En el cap??tulo 3, tomando nuevamente ideas de la literatura de evaluaci??n de impacto, se utilizan datos de un experimento natural en las escuelas de educaci??n primaria en Espa??a para estimar la eficiencia de los maestros. Seg??n la asignaci??n aleatoria de los estudiantes a las clases en los colegios, se explota la variaci??n ex??gena de la eficiencia t??cnica entre los maestros para evaluar su desempe??o. Esta estrategia permite obtener una medida objetiva del verdadero efecto del maestro sobre los logros de los estudiantes y explorar los principales factores que explican la eficiencia de los docentes. M??s all?? de los resultados concretos de cada contexto educativo analizado (que se discuten en cada cap??tulo), ambos an??lisis proporcionan evidencia robusta de que el tomar o no en consideraci??n el problema de endogeneidad conduce a resultados radicalmente diferentes en t??rminos de las recomendaciones de pol??tica educativa p??blica para mejorar la calidad de la ense??anza.
Resumo:
El modelat d'escenes és clau en un gran ventall d'aplicacions que van des de la generació mapes fins a la realitat augmentada. Aquesta tesis presenta una solució completa per a la creació de models 3D amb textura. En primer lloc es presenta un mètode de Structure from Motion seqüencial, a on el model 3D de l'entorn s'actualitza a mesura que s'adquireix nova informació visual. La proposta és més precisa i robusta que l'estat de l'art. També s'ha desenvolupat un mètode online, basat en visual bag-of-words, per a la detecció eficient de llaços. Essent una tècnica completament seqüencial i automàtica, permet la reducció de deriva, millorant la navegació i construcció de mapes. Per tal de construir mapes en àrees extenses, es proposa un algorisme de simplificació de models 3D, orientat a aplicacions online. L'eficiència de les propostes s'ha comparat amb altres mètodes utilitzant diversos conjunts de dades submarines i terrestres.
Resumo:
En problemes d'assignació de recursos, normalment s'han de tenir en compte les incerteses que poden provocar canvis en les dades inicials. Aquests canvis dificulten l'aplicabilitat de les planificacions que s'hagin fet inicialment. Aquesta tesi se centra en l'elaboració de tècniques que consideren la incertesa alhora de cercar solucions robustes, és a dir solucions que puguin continuar essent vàlides encara que hi hagi canvis en l'entorn. Particularment, introduïm el concepte de robustesa basat en reparabilitat, on una solució robusta és una que pot ser reparada fàcilment en cas que hi hagi incidències. La nostra aproximació es basa en lògica proposicional, codificant el problema en una fórmula de satisfactibilitat Booleana, i aplicant tècniques de reformulació per a la generació de solucions robustes. També presentem un mecanisme per a incorporar flexibilitat a les solucions robustes, de manera que es pugui establir fàcilment el grau desitjat entre robustesa i optimalitat de les solucions.
Resumo:
A miocardiopatia hipertrófica (MH) é a doença cardíaca genética mais comum, afectando 1:500 indivíduos, apresentando um padrão de transmissão autossómico dominante, com mutações associadas a genes sarcoméricos e não sarcoméricos. A MH apresenta uma variedade de manifestações clínicas, desde indivíduosassintomáticos a indivíduos que manifestam uma progressão da severidade dos sintomas, podendo nalguns casos ocorrer morte súbita. O diagnóstico clínico é realizado por Electrocardiograma e Ecocardiograma. O diagnóstico genético baseia-se na Sequenciação Automática (SA) dos 5 principais genes sarcoméricos MYBPC3, MYH7, TNNT2, TNNI3 e MYL2, sendo considerada uma metodologia bastante dispendiosa e demorada e que não permite a identificação de mutações em cerca de 1/3 dos individuos. A Genotipagem por iPLEX MassARRAY revela-se uma boa alternativa à SA no diagnóstico genético de MH, uma vez que permite a análise de várias amostras em simultâneo, para um elevado número de mutações, num único ensaio, com uma maior rentabilidade de tempo e recursos. Este trabalho teve como objectivo a optimização e a validação desta metodologia, na detecção de 541 mutações em 33 genes, tendo-se verificado que 29 % das reacções multiplex necessitam de ser revistas, quer pelo desenho de novos conjuntos de primers, quer pela sua relocalização no chip.
Resumo:
A nanotecnologia é uma ciência multidisciplinar que consiste na optimização das propriedades da matéria permitindo o desenvolvimento de sistemas com um tamanho na escala dos nanómetros. A aplicação da nanotecnologia na medicina e cosmética surge como um campo de pesquisa que está a gerar um crescente interesse. A nanotecnologia aplicada ao tratamento de doenças comuns da pele tem sofrido alguns avanços, principalmente na área do tratamento tópico da acne, que tem beneficiado com o progresso desta tecnologia. A acne surge face a múltiplos factores patogénicos, afectando entre 75% a 95% dos adolescentes provocando-lhes transtornos físicos e psíquicos. No entanto, apesar de ser uma patologia característica da adolescência, a acne é prevalente também numa pequena população de mulheres com idade superior a 40 anos. Nesta dissertação foi feita uma abordagem da patogénese da acne, que foi útil na compressão dos objectivos do tratamento tópico, sistémico e físico instituído ao doente. Foram ainda explorados os conceitos básicos de nanotecnologia, que se enquadraram numa compreensão de como esta pode contribuir para a medicina e cosmética aplicada ao tratamento da acne. Foram também investigadas as diferentes publicações na área e avaliada a sua aplicação ao tratamento tópico da acne.
Resumo:
A nanotecnologia foi introduzida nas áreas farmacêutica e cosmética, com o propósito de possibilitar o desenvolvimento de sistemas de veiculação de substâncias e para a optimização das formulações já existentes. As preparações de aplicação tópica têm elevada importância nas perspectivas terapêutica e cosmética, uma vez que a pele apresenta uma área de aplicação extensa e acessível, os efeitos sistémicos das substâncias a administrar por via tópica encontram-se geralmente reduzidos, exercendo na maioria das vezes um efeito local. Mais, a esta via estão normalmente associadas menos reacções adversas. Todavia, a pele é um órgão, dotado de um efeito barreira notável, que pode comprometer a administração de moléculas farmacológica/cosmetologicamente activas no alvo. Assim, é evidente a necessidade de conhecer a constituição da pele, pois a permeabilidade cutânea de substâncias é um desafio que só pode ser conseguido através da preparação de formulações capazes de ultrapassar essa mesma barreira. O trabalho exposto aborda sucintamente a nanocosmética, pois esta tem revelado elevados impactos económico, social e científico. A inexistência de informação sobre quais os produtos actualmente comercializados, cuja produção tenha por base a nanotecnologia, suscitaram o interesse em desenvolver uma revisão sobre esses mesmos produtos, assim como esclarecer alguns aspectos relacionados com as características da pele, que justificam o investimento e estudo exaustivo deste tipo de preparações.
Resumo:
Se introduce una breve reflexión sobre los campos científicos que conforman el área y, se procura mostrar algunos de los "problemas cardinales -según el léxico de los cienciólogos que a criterio del autor atraviesan actualmente el asunto de la incorporación de las ciencias naturales y sociales, mirado desde el moderno paradigma latinoamericano y sobre todo, desde la urgencia de formulación de propuestas integrales para la salud poblacional. Se discute el concepto de "incorporación" de las ciencias para distinguir la extensión y profundidad de la influencia de disciplinas como las naturales y sociales en la práctica y el saber de la salud pública. Hacia el final se esboza un análisis sobre el tema de la politicidad del saber, que es un aspecto insoslayable en cualquier discusión epistemológica seria. Un análisis que se enmarca en el desafío de lo que el autor ha denominado la necesidad de una "prevención profunda". Se trata de impulsar un proceso globalizante que supere el reduccionismo de las orientaciones preventivas clásicas (prevención individual y etiológica) y de los programas sanitarios que podría calificárselos como faltos de objetividad, insuficientes, aislados y de baja intensidad. Un quehacer técnico que se apoye en una ciencia robusta ("hard science") rebasando el estrecho y resignado marco de una ciencia blanda, "tercermundista".
Resumo:
Como parte de la evolución de la humanidad a través del tiempo, casi todas las actividades se han circunscrito a generar comercio, es decir intercambio de bienes y servicios entre las personas, grupos humanos, empresas, corporaciones y Estados. Este tipo de actividades comerciales se han desarrollado a una velocidad cada vez mayor, rebasando por lo general a la norma que las regula, y, en este marco es donde tienden a limitar, reducir o incluso eliminar las mismas. Desde la invención de la rueda, la moneda y posteriormente el predominio de la empresa, el hombre siempre ha buscado nuevas y mejores maneras de hacer las cosas, y en este escenario es donde nace la tecnología, el Internet y, obviamente, sobre este medio es donde se asienta, fortalece y crece de manera robusta esta nueva forma de hacer negocios llamada: “comercio electrónico”. Es tan fascinante, global y dinámico este mercado, que la economía ecuatoriana no escapa a este fenómeno, pero surgen muchas interrogantes al respecto, entre ellas: ¿estamos preparados para poder identificar, normar y controlar tributariamente esta actividad?. A través del presente trabajo de investigación se hace un acercamiento conceptual al comercio electrónico, se detallan sus características principales, los retos y oportunidades, las tendencias internacionales, así como los riesgos inherentes a su actividad. Desde la perspectiva tributaria, si es una actividad comercial, si ésta genera ingresos, si existe un intercambio de bienes y/o servicios y si se desarrolla dentro del territorio nacional, necesariamente estamos frente a la materialización de un hecho generador que es susceptible de tributar, por lo que el realizar un análisis respecto de la norma vigente y su alcance es fundamental. Lo que se ha tratado es de definir el impacto del comercio electrónico en la fiscalidad del país, pudiendo convertirse en una fuente de consulta y guía para seguir generando conciencia de la importancia que esta actividad de cara a los ingresos tributarios e intereses nacionales.
Resumo:
The purpose of this study was to test the hypothesis that soil water content would vary spatially with distance from a tree row and that the effect would differ according to tree species. A field study was conducted on a kaolinitic Oxisol in the sub-humid highlands of western Kenya to compare soil water distribution and dynamics in a maize monoculture with that under maize (Zea mays L.) intercropped with a 3-year-old tree row of Grevillea robusta A. Cunn. Ex R. Br. (grevillea) and hedgerow of Senna spectabilis DC. (senna). Soil water content was measured at weekly intervals during one cropping season using a neutron probe. Measurements were made from 20 cm to a depth of 225 cm at distances of 75, 150, 300 and 525 cm from the tree rows. The amount of water stored was greater under the sole maize crop than the agroforestry systems, especially the grevillea-maize system. Stored soil water in the grevillea-maize system increased with increasing distance from the tree row but in the senna-maize system, it decreased between 75 and 300 cm from the hedgerow. Soil water content increased least and more slowly early in the season in the grevillea-maize system, and drying was also evident as the frequency of rain declined. Soil water content at the end of the cropping season was similar to that at the start of the season in the grevillea-maize system, but about 50 and 80 mm greater in the senna-maize and sole maize systems, respectively. The seasonal water balance showed there was 140 mm, of drainage from the sole maize system. A similar amount was lost from the agroforestry systems (about 160 mm in the grevillea-maize system and 145 mm in the senna-maize system) through drainage or tree uptake. The possible benefits of reduced soil evaporation and crop transpiration close to a tree row were not evident in the grevillea-maize system, but appeared to greatly compensate for water uptake losses in the senna-maize system. Grevillea, managed as a tree row, reduced stored soil water to a greater extent than senna, managed as a hedgerow.
Resumo:
The ORAC(FL) assay was used in non-automated mode to evaluate the specific peroxyl radical scavenging properties of the aqueous soluble components of green and roasted Arabica and Robusta coffee samples. A relationship between ORAC(FL) and the concentration of CQAs (caffeoyl quinic acids) was found for the extracts from green coffee beans. Aqueous extracts from roasted coffee beans possessed equal or stronger scavenging power than that obtained for the green coffee beans extracts and the scavenging activity depended on the variety of coffee and the roasting conditions. Brews from Robusta coffee beans showed the highest ORAC(FL). The best scavenging properties for the brews from Arabica coffee beans were detected in samples prepared from coffee beans roasted under light conditions. The data indicate that, during roasting, a complex network of reactions takes place leading to the formation of a wide number of compounds possessing specific scavenging properties. Under mild roasting conditions, caffeoyl quinic acids appear to be the main components responsible for the free radical scavenging power of coffee brews. In contrast, Maillard reaction products may be the principal components with free radical scavenging activity in more severely (medium and dark) roasted coffees.
Resumo:
As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.