475 resultados para Complements
Resumo:
Antisense oligonucleotides deserve great attention as potential drug candidates for the treatment of genetic disorders. For example, muscle dystrophy can be treated successfully in mice by antisense-induced exon skipping in the pre-mRNA coding for the structural protein dystrophin in muscle cells. For this purpose a sugar- and backbone-modified DNA analogue was designed, in which a tricyclic ring system substitutes the deoxyribose. These chemical modifications stabilize the dimers formed with the targeted RNA relative to native nucleic acid duplexes and increase the biostability of the antisense oligonucleotide. While evading enzymatic degradation constitutes an essential property of antisense oligonucleotides for therapeutic application, it renders the oligonucleotide inaccessible to biochemical sequencing techniques and requires the development of alternative methods based on mass spectrometry. The set of sequences studied includes tcDNA oligonucleotides ranging from 10 to 15 nucleotides in length as well as their hybrid duplexes with DNA and RNA complements. All samples were analyzed on a LTQ Orbitrap XL instrument equipped with a nano-electrospray source. For tandem mass spectrometric experiments collision-induced dissociation was performed, using helium as collision gas. Mass spectrometric sequencing of tcDNA oligomers manifests the applicability of the technique to substrates beyond the scope of enzyme-based methods. Sequencing requires the formation of characteristic backbone fragments, which take the form of a-B- and w-ions in the product ion spectra of tcDNA. These types of product ions are typically associated with unmodified DNA, which suggests a DNA-like fragmentation mechanism in tcDNA. The loss of nucleobases constitutes the second prevalent dissociation pathway observed in tcDNA. Comparison of partially and fully modified oligonucleotides indicates a pronounced impact of the sugar-moiety on the base loss. As this event initiates cleavage of the backbone, the presented results provide new mechanistic insights into the fragmentation of DNA in the gas-phase. The influence of the sugar-moiety on the dissociation extends to tcDNA:DNA and tcDNA:RNA hybrid duplexes, where base loss was found to be much more prominent from sugar-modified oligonucleotides than from their natural complements. Further prominent dissociation channels are strand separation and backbone cleavage of the single strands, as well as the ejection of backbone fragments from the intact duplex. The latter pathway depends noticeably on the base sequence. Moreover, it gives evidence of the high stability of the hybrid dimers, and thus directly reflects the affinity of tcDNA for its target in the cell. As the cellular target of tcDNA is a pre-mRNA, the structure was designed to discriminate RNA from DNA complements, which could be demonstrated by mass spectrometric experiments.
Resumo:
This paper focuses on the link between economic rights and institutions. Simple analysis of data is used to demonstrate countries' human development effort in advancing economics rights of the citizens. A country's human development effort is evaluated on the basis of the well-being of the poorest members of the society. An analysis of data reveals that there is a wide variation in countries' pro-poor stance. While it is accepted that positive rights are pro-poor, this paper argues that so too are negative economic rights and in fact the two are complements rather than substitutes. Classifying countries into human development income deficit and human development effort deficit, it is demonstrated that a large number of countries could achieve higher welfare levels for the poor if they improved on bother positive and negative economic rights. The paper attempts to explain variations in the observed commitment to economic rights by focusing on pro-poor institutions. The basic thesis advanced in the paper is that pro-poor policies are more likely to be implemented and sustained in those institutions where power is sufficiently diffused such that even the poor have leverage over policy outcomes. The paper focuses on how institutions impact on power diffusion and therefore the adoption of pro-poor growth and policies. The failure of countries to adopt pro-poor growth and policies is attributed to institutional failures manifested in concentration of power. The policy recommendations emanating from the analysis focus on institutional reforms to enhance power diffusion. These policies include enlarging the political space through democratization, strengthening institutions and capacity to fight corruption and improve transparency, and bringing the government closer to the people through appropriate design and implementation of decentralization schemes. Some recent examples of improvements in economic rights following power diffusion are provided.
Resumo:
Dust has the potential to modify global climate by influencing the radiative balance of the atmosphere and by supplying iron and other essential limiting micronutrients to the ocean (Martin et al., 1990, doi:10.1038/345156a0; Martin, 1990, doi:10.1029/PA005i001p00001). Indeed, dust supply to the Southern Ocean increases during ice ages, and 'iron fertilization' of the subantarctic zone may have contributed up to 40 parts per million by volume (p.p.m.v.) of the decrease (80-100 p.p.m.v.) in atmospheric carbon dioxide observed during late Pleistocene glacial cycles (Watson et al., 2000, doi:10.1038/35037561; Kohfeld et al., 2005, doi:10.1126/science.1105375; Martínez-Garcia et al., 2009, doi:10.1029/2008PA001657; Sigman et al., 2010, doi:10.1038/nature09149; Hain et al., 2010, doi:10.1029/2010gb003790). So far, however, the magnitude of Southern Ocean dust deposition in earlier times and its role in the development and evolution of Pleistocene glacial cycles have remained unclear. Here we report a high-resolution record of dust and iron supply to the Southern Ocean over the past four million years, derived from the analysis of marine sediments from ODP Site 1090, located in the Atlantic sector of the subantarctic zone. The close correspondence of our dust and iron deposition records with Antarctic ice core reconstructions of dust flux covering the past 800,000 years (Lambert et al., 2008, doi:10.1038/nature06763; Wolf et al., 2006, doi:10.1038/nature04614) indicates that both of these archives record large-scale deposition changes that should apply to most of the Southern Ocean, validating previous interpretations of the ice core data. The extension of the record beyond the interval covered by the Antarctic ice cores reveals that, in contrast to the relatively gradual intensification of glacial cycles over the past three million years, Southern Ocean dust and iron flux rose sharply at the Mid-Pleistocene climatic transition around 1.25 million years ago. This finding complements previous observations over late Pleistocene glacial cycles (Martínez-Garcia et al., 2009; Lambert et al., 2008; Wolff et al., 2006), providing new evidence of a tight connection between high dust input to the Southern Ocean and the emergence of the deep glaciations that characterize the past one million years of Earth history.
Resumo:
El objetivo de este artículo es caracterizar las formas de inserción laboral de mujeres, que aparecen como mano de obra transitoria, en el mercado de trabajo frutihortícola marplatense. El trabajo femenino asalariado está presente en la actividad hortícola que se practica a campo y bajo cubierta y en cultivos frutícolas no tradicionales. La investigación nos ha permitido indagar cómo y por qué estas mujeres se insertan en la actividad agrícola, identificar los procesos laborales específicos que requieren su fuerza de trabajo, así como las modalidades de remuneración y la complementación con otras actividades económicas. La perspectiva de género en el análisis de la participación laboral pone en juego múltiples dimensiones de las relaciones laborales. Desde este enfoque, se procura examinar la participación de las mujeres en las actividades remuneradas, explorando algunos de los rasgos que la configuran
Resumo:
Este artículo presenta una discusión sobre algunas nociones que emplea la sintaxis actual del griego clásico. En primer lugar, expone el ámbito que ocupa la sintaxis en el marco de la lingüística y la filología. En segundo y tercer lugar, expone el concepto de enunciado y de sintagma aplicados a la sintaxis del griego clásico. En cuarto lugar, expone brevemente algunos criterios distribucionales empleados para identificar las funciones desempeñadas por los complementos en la oración. A continuación, se exponen los conceptos de papel semántico, noción relacional, función semántica, función sintáctica y función pragmática. La sección 7 resume la estructura de la oración y defiende la idea de que hay que distinguir una serie de niveles o capas en los que se alojan los complementos. El parágrafo final contiene una breve conclusión. El artículo se cierra con una lista de libros sobre sintaxis griega publicados desde 1991 hasta 2003.
Resumo:
El objetivo de este artículo es caracterizar las formas de inserción laboral de mujeres, que aparecen como mano de obra transitoria, en el mercado de trabajo frutihortícola marplatense. El trabajo femenino asalariado está presente en la actividad hortícola que se practica a campo y bajo cubierta y en cultivos frutícolas no tradicionales. La investigación nos ha permitido indagar cómo y por qué estas mujeres se insertan en la actividad agrícola, identificar los procesos laborales específicos que requieren su fuerza de trabajo, así como las modalidades de remuneración y la complementación con otras actividades económicas. La perspectiva de género en el análisis de la participación laboral pone en juego múltiples dimensiones de las relaciones laborales. Desde este enfoque, se procura examinar la participación de las mujeres en las actividades remuneradas, explorando algunos de los rasgos que la configuran
Resumo:
Este artículo presenta una discusión sobre algunas nociones que emplea la sintaxis actual del griego clásico. En primer lugar, expone el ámbito que ocupa la sintaxis en el marco de la lingüística y la filología. En segundo y tercer lugar, expone el concepto de enunciado y de sintagma aplicados a la sintaxis del griego clásico. En cuarto lugar, expone brevemente algunos criterios distribucionales empleados para identificar las funciones desempeñadas por los complementos en la oración. A continuación, se exponen los conceptos de papel semántico, noción relacional, función semántica, función sintáctica y función pragmática. La sección 7 resume la estructura de la oración y defiende la idea de que hay que distinguir una serie de niveles o capas en los que se alojan los complementos. El parágrafo final contiene una breve conclusión. El artículo se cierra con una lista de libros sobre sintaxis griega publicados desde 1991 hasta 2003.
Resumo:
El objetivo de este artículo es caracterizar las formas de inserción laboral de mujeres, que aparecen como mano de obra transitoria, en el mercado de trabajo frutihortícola marplatense. El trabajo femenino asalariado está presente en la actividad hortícola que se practica a campo y bajo cubierta y en cultivos frutícolas no tradicionales. La investigación nos ha permitido indagar cómo y por qué estas mujeres se insertan en la actividad agrícola, identificar los procesos laborales específicos que requieren su fuerza de trabajo, así como las modalidades de remuneración y la complementación con otras actividades económicas. La perspectiva de género en el análisis de la participación laboral pone en juego múltiples dimensiones de las relaciones laborales. Desde este enfoque, se procura examinar la participación de las mujeres en las actividades remuneradas, explorando algunos de los rasgos que la configuran
Resumo:
Este artículo presenta una discusión sobre algunas nociones que emplea la sintaxis actual del griego clásico. En primer lugar, expone el ámbito que ocupa la sintaxis en el marco de la lingüística y la filología. En segundo y tercer lugar, expone el concepto de enunciado y de sintagma aplicados a la sintaxis del griego clásico. En cuarto lugar, expone brevemente algunos criterios distribucionales empleados para identificar las funciones desempeñadas por los complementos en la oración. A continuación, se exponen los conceptos de papel semántico, noción relacional, función semántica, función sintáctica y función pragmática. La sección 7 resume la estructura de la oración y defiende la idea de que hay que distinguir una serie de niveles o capas en los que se alojan los complementos. El parágrafo final contiene una breve conclusión. El artículo se cierra con una lista de libros sobre sintaxis griega publicados desde 1991 hasta 2003.
Resumo:
A diverse suite of geochemical tracers, including 87Sr/86Sr and 143Nd/144Nd isotope ratios, the rare earth elements (REEs), and select trace elements were used to determine sand-sized sediment provenance and transport pathways within the San Francisco Bay coastal system. This study complements a large interdisciplinary effort (Barnard et al., 2012) that seeks to better understand recent geomorphic change in a highly urbanized and dynamic estuarine-coastal setting. Sand-sized sediment provenance in this geologically complex system is important to estuarine resource managers and was assessed by examining the geographic distribution of this suite of geochemical tracers from the primary sources (fluvial and rock) throughout the bay, adjacent coast, and beaches. Due to their intrinsic geochemical nature, 143Nd/144Nd isotopic ratios provide the most resolved picture of where sediment in this system is likely sourced and how it moves through this estuarine system into the Pacific Ocean. For example, Nd isotopes confirm that the predominant source of sand-sized sediment to Suisun Bay, San Pablo Bay, and Central Bay is the Sierra Nevada Batholith via the Sacramento River, with lesser contributions from the Napa and San Joaquin Rivers. Isotopic ratios also reveal hot-spots of local sediment accumulation, such as the basalt and chert deposits around the Golden Gate Bridge and the high magnetite deposits of Ocean Beach. Sand-sized sediment that exits San Francisco Bay accumulates on the ebb-tidal delta and is in part conveyed southward by long-shore currents. Broadly, the geochemical tracers reveal a complex story of multiple sediment sources, dynamic intra-bay sediment mixing and reworking, and eventual dilution and transport by energetic marine processes. Combined geochemical results provide information on sediment movement into and through San Francisco Bay and further our understanding of how sustained anthropogenic activities which limit sediment inputs to the system (e.g., dike and dam construction) as well as those which directly remove sediments from within the Bay, such as aggregate mining and dredging, can have long-lasting effects.
Resumo:
Sites 482, 483, and 485 were drilled during Leg 65 on young oceanic crust south of the Tamayo Transform Fault. The Leg 65 drilling program was part of a multinational effort to study the East Pacific Rise (EPR) and complements sea bottom surveys conducted both in this area (Lewis, 1979; Cyamex Scientific Team and Pastouret, 1981) and farther south at 21 °N (Larson, 1971; Normark, 1976; Cyamex Scientific Team; Rise Project Group, 1980). These studies, which included deep-tow, Angus and submersible surveys, were recently complemented by sea-beam surveys conducted by the Jean Charcot on the Tamayo Fracture Zone and farther south along the EPR. They have led to a better understanding of the magmatic, tectonic, and sedimentary processes occurring on the East Pacific Rise between the Tamayo and Rivera fracture zones. The purpose of this chapter is to describe the metamorphic processes affecting Pliocene through Quaternary sediments found in contact, or inter layered, with basaltic units drilled during Leg 65 at the mouth of the Gulf of California.
Resumo:
Prohibiting land reallocation improves tenure security, but it remains unclear whether this sufficiently facilitates the development of farmland rental markets in China. To fill this gap, we investigate how farmland rental activities are influenced by full-scale land reallocation (FSLR) and partial land reallocation (PLR), which differ in scale and imposition. Employing the instrumental-variables and the difference-in-differences approaches, we find that PLR substitutes relation-specific contracting in the markets, while FSLR complements arms-length contracting. The different impacts are attributable to the difference in imposition rather than scale. These findings suggest the need for further reforms.
Resumo:
Desde la explosión de crecimiento de internet que comenzó en los años 90, se han ido creando y poniendo a disposición de los usuarios diversas herramientas para compartir información y servicios de diversas formas, desde el nacimiento del primer navegador hasta nuestros días, donde hay infinidad de lenguajes aplicables al ámbito web. En esta fase de crecimiento, en primer lugar, de cara a usuarios individuales, saldrían herramientas que permitirían a cada cual hacer su web personal, con sus contenidos expuestos. Más adelante se fue generando el fenómeno “comunidad”, con, por ejemplo, foros, o webs en las que había múltiples usuarios que disfrutaban de contenidos o servicios que la web ofreciese. Este crecimiento del mundo web en lo comunitario ha avanzado en muchas ramas,entre ellas, por supuesto, la educacional, surgiendo plataformas como la que es base del proyecto que a continuación se presenta, y herramienta básica y prácticamente ya imprescindible en la enseñanza universitaria: Moodle. Moodle es una herramienta diseñada para compatir recursos y diseñar actividades para el usuario potencial, complementando su aprendizaje en aula, o incluso siendo una vía autónoma de aprendizaje en sí misma. Se ha realizado un estudio sobre el estado de saludo de los contenidos que se exponen en Moodle, y se ha encontrado que una gran mayoría de los cursos que se pueden visitar tienen un gran número de carencias. Por un lado, hay pocos con material original explotado exclusivamente para el curso, y, si tienen material original, no se ha observado una especial atención por la maquetación. Por otro lado, hay muchos otros sin material original, y, en ambos casos, no se ha encontrado ningún curso que ofrezca material audiovisual exclusivo para el curso, presentando algunos en su lugar material audiovisual encontrado en la red (Youtube, etc). A la vista de estos hechos, se ha realizado un proyecto que intenta aportar soluciones ante estas carencias, y se presenta un curso procedente de diversas referencias bibliográficas, para la parte textual, y material audiovisual original e inédito que también se ha explotado específicamente para este curso. Este material ha sido por un lado vídeo, que se ha visionado, editado y subtitulado con software de libre distribución, y por otro lado, audio, que complementa un completo glosario que se ha añadido como extra al curso y cuyo planteamiento no se ha encontrado en ningún curso online de los revisados. Todo esto se ha envuelto en una maquetación cuidada que ha sido fruto del estudio de los lenguajes web html y CSS, de forma que, por un lado, el curso sea un lugar agradable en el que aprender dentro de internet, y por otro, se pudiesen realizar ciertas operaciones que sin estos conocimientos habrían sido imposibles, como la realización del glosario o la incrustación de imágenes y vídeos. A su vez, se ha tratado de dar un enfoque didáctico a toda la memoria del proyecto, de forma que pueda ser de utilidad a un usuario futuro que quisiese profundizar en los usos de Moodle, introducirse en el lenguaje web, o introducirse en el mundo de la edición de vídeo. ABSTRACT: Since the explosion of Internet growth beginning in the 90s, many tools have been created and made available for users to share information and services in various ways, from the birth of the first browser until today, where there are plenty of web programming languages. This growth stage would give individual users tools that would allow everyone to make an own personal website, with their contents exposed. Later, the "community" phenomenon appeared with, for example, forums, or websites where multiple users enjoyed the content or web services that those websites offered. Also, this growth in the web community world has progressed in many fields, including education, with the emerge of platforms such as the one that this project uses as its basis, and which is the basic and imperative tool in college education: Moodle. Moodle is a tool designed to share resources and design activities for the potential user, completing class learning, or even letting this user learn in an autonomous way. In this project a study on the current situation of the content present in Moodle courses around the net has been carried out, and it has been found that most of them lack of original material exploited exclusively for the courses, and if they have original material, there has been not observed concern on the layout where that material lies. On the other hand, there are many other with non original material, and in both cases, there has not been found any course that offers audio- visual material made specifically for the course, instead of presenting some audiovisual material found on the net (Youtube, etc). In view of these facts, the project presented here seeks to provide solutions to these shortcomings, presenting a course with original material exploited from various references, and unpublished audioevisual material which also has been exploited specifically for this course. This material is, on one hand, video, which has been viewed, edited and subtitled with free software, and on the other, audio, which complements a comprehensive glossary that has been added as an extra feature to the course and whose approach was not found in any of the online courses reviewed. All of this has been packaged in a neat layout that has been the result of the study of web languages HTML and CSS, so that first, the course was a pleasant place to learn on the internet, and second, certain operations could be performed which without this knowledge would have been impossible, as the glossary design or embedding images and videos. Furthermore, a didactic approach has been adopted to the entire project memory, so it can be useful to a future user who wanted to go deeper on the uses of Moodle, containing an intro into the web language, or in the world video editing.
Resumo:
Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.
Resumo:
García et al. present a class of column generation (CG) algorithms for nonlinear programs. Its main motivation from a theoretical viewpoint is that under some circumstances, finite convergence can be achieved, in much the same way as for the classic simplicial decomposition method; the main practical motivation is that within the class there are certain nonlinear column generation problems that can accelerate the convergence of a solution approach which generates a sequence of feasible points. This algorithm can, for example, accelerate simplicial decomposition schemes by making the subproblems nonlinear. This paper complements the theoretical study on the asymptotic and finite convergence of these methods given in [1] with an experimental study focused on their computational efficiency. Three types of numerical experiments are conducted. The first group of test problems has been designed to study the parameters involved in these methods. The second group has been designed to investigate the role and the computation of the prolongation of the generated columns to the relative boundary. The last one has been designed to carry out a more complete investigation of the difference in computational efficiency between linear and nonlinear column generation approaches. In order to carry out this investigation, we consider two types of test problems: the first one is the nonlinear, capacitated single-commodity network flow problem of which several large-scale instances with varied degrees of nonlinearity and total capacity are constructed and investigated, and the second one is a combined traffic assignment model