930 resultados para Mixed Elliptic Problems with Singular Interfaces
Resumo:
Les molécules classiques du CMH de classe II sont responsables de la présentation de peptides exogènes par les cellules présentatrices d’antigène aux lymphocytes T CD4+. Cette présentation antigénique est essentielle à l’établissement d’une réponse immunitaire adaptative. Cependant, la reconnaissance d’auto-antigènes ainsi que l’élimination des cellules du Soi sont des problèmes à l’origine de nombreuses maladies auto-immunes. Notamment, le diabète et la sclérose en plaque. D’éventuels traitements de ces maladies pourraient impliquer la manipulation de la présentation antigénique chez les cellules dont la reconnaissance et l’élimination engendrent ces maladies. Il est donc primordial d’approfondir nos connaissances en ce qui concerne les mécanismes de régulation de la présentation antigénique. La présentation antigénique est régulée tant au niveau transcriptionnel que post-traductionnel. Au niveau post-traductionnel, diverses cytokines affectent le processus. Parmi celles-ci, l’IL-10, une cytokine anti-inflammatoire, cause une rétention intracellulaire des molécules du CMH II. Son mécanisme d’action consiste en l’ubiquitination de la queue cytoplasmique de la chaîne bêta des molécules de CMH II. Cette modification protéique est effectuée par MARCH1, une E3 ubiquitine ligase dont l’expression est restreinte aux organes lymphoïdes secondaires. Jusqu’à tout récemment, il y avait très peu de connaissance concernant la structure et les cibles de MARCH1. Considérant son impact majeur sur la présentation antigénique, nous nous sommes intéressé à la structure-fonction de cette molécule afin de mieux caractériser sa régulation ainsi que les diverses conditions nécessaires à son fonctionnement. Dans un premier article, nous avons étudié la régulation de l’expression de MARCH1 au niveau protéique. Nos résultats ont révélé l’autorégulation de la molécule par formation de dimères et son autoubiquitination. Nous avons également démontré l’importance des domaines transmembranaires de MARCH1 dans la formation de dimères et l’interaction avec le CMH II. Dans un second article, nous avons investigué l’importance de la localisation de MARCH1 pour sa fonction. Les résultats obtenus montrent la fonctionnalité des motifs de localisation de la portion C-terminale de MARCH1 ainsi que la présence d’autres éléments de localisation dans la portion N-terminale de la protéine. Les nombreux mutants utilisés pour ce projet nous ont permis d’identifier un motif ‘‘VQNC’’, situé dans la portion cytoplasmique C-terminale de MARCH1, dont la valine est requise au fonctionnement optimal de la molécule. En effet, la mutation de la valine engendre une diminution de la fonction de la molécule et des expériences de BRET ont démontré une modification de l’orientation spatiale des queues cytoplasmiques. De plus, une recherche d’homologie de séquence a révélé la présence de ce même motif dans d’autres ubiquitines ligases, dont Parkin. Parkin est fortement exprimée dans le cerveau et agirait, entre autre, sur la dégradation des agrégats protéiques. La dysfonction de Parkin cause l’accumulation de ces agrégats, nommés corps de Lewy, qui entraînent des déficiences au niveau du fonctionnement neural observé chez les patients atteints de la maladie de Parkinson. La valine comprise dans le motif ‘’VQNC’’ a d’ailleurs été identifiée comme étant mutée au sein d’une famille où cette maladie est génétiquement transmise. Nous croyons que l’importance de ce motif ne se restreint pas à MARCH1, mais serait généralisée à d’autres E3 ligases. Ce projet de recherche a permis de caractériser des mécanismes de régulation de MARCH1 ainsi que de découvrir divers éléments structuraux requis à sa fonction. Nos travaux ont permis de mieux comprendre les mécanismes de contrôle de la présentation antigénique par les molécules de CMH II.
Resumo:
Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.
Resumo:
Cette recherche porte sur la problématique du développement psychosocial des enfants doués. Bien qu’il existe des travaux qui indiquent que les enfants doués souffrent plus souvent de problèmes d’adaptation que les autres, comme l’isolement social, la dépression, l’anxiété et une faible estime de soi, la littérature de recherche considère peu l’environnement familial des enfants doués comme étant un facteur qui puisse contribuer au niveau d’adaptation de l’enfant. La présente recherche a eu donc pour objectif de déterminer si les styles parentaux, tels que définis par Baumrind, sont associés à l’adaptation des enfants doués. Les styles parentaux des parents ont été mesurés à l'aide d'un questionnaire auto-rapporté. Le niveau d’adaptation d’un groupe d’enfants doués, âgés de 7 à 11 ans, a été évalué à l’aide de mesures de comportement et de concept de soi. La douance a été mesurée avec un test d’intelligence standardisé. Quarante-huit enfants doués et 52 enfants du groupe contrôle ont participé à l'étude. Les résultats ont démontré que les parents des enfants doués utilisent majoritairement un style parental démocratique. Les mères ont rapporté être significativement plus démocratiques que les pères. Les parents ont identifié un sous-groupe d'enfants doués ayant des problèmes sociaux avec leurs pairs, tandis que ces enfants doués et leurs enseignants n’en n’ont pas indiqué. Aucune association n’a été mise en évidence entre l'utilisation d'un style parental particulier et les problèmes sociaux chez les enfants doués. Cependant, l’utilisation du style parental autoritaire des mères a été associée à des problèmes de comportement moins élevés ainsi qu’un concept de soi intellectuel plus élevé chez les enfants doués. Inversement, le style parental démocratique des mères a été associé à des problèmes de comportements plus élevés chez les enfants doués. Le style parental permissif des mères a été associé à des niveaux de concept de soi moins élevés chez les enfants doués. Pour les pères, les styles parentaux autoritaires et permissifs ont été associés à des niveaux d’adaptation et de concept de soi moins élevés chez les enfants doués. Enfin, le niveau d’adaptation ainsi que les styles parentaux ont été comparés entre les deux groupes d’enfants. Les deux groupes ont présenté des niveaux d’adaptation dans la gamme de la normalité. De plus, les parents des deux groupes d’enfants ont rapporté des styles parentaux similaires. Pour les pères des enfants du groupe de contrôle, le style parental démocratique a été associé à des niveaux d’adaptation plus élevés. Le style parental autoritaire des mères et le style parental permissif des pères ont été associés à des niveaux de concept de soi moins élevés chez les enfants du groupe de contrôle. En somme, les conclusions de cette thèse permettent une meilleure compréhension de la complexité des liens entre les styles parentaux et l’adaptation des enfants doués.
Resumo:
We consider general allocation problems with indivisibilities where agents' preferences possibly exhibit externalities. In such contexts many different core notions were proposed. One is the gamma-core whereby blocking is only allowed via allocations where the non-blocking agents receive their endowment. We show that if there exists an allocation rule satisfying ‘individual rationality’, ‘efficiency’, and ‘strategy-proofness’, then for any problem for which the gamma-core is non-empty, the allocation rule must choose a gamma-core allocation and all agents are indifferent between all allocations in the gamma-core. We apply our result to housing markets, coalition formation and networks.
Resumo:
La tagatose-1,6-biphosphate aldolase de Streptococcus pyogenes est une aldolase qui fait preuve d'un remarquable manque de spécificité vis à vis de ses substrats. En effet, elle catalyse le clivage réversible du tagatose-1,6-bisphosphate (TBP), mais également du fructose-1,6-bisphosphate (FBP), du sorbose-1,6-bisphosphate et du psicose-1,6-bisphosphate, quatre stéréoisomères, en dihydroxyacétone phosphate (DHAP) et en glycéraldéhyde-3-phosphate (G3P). Aldolase de classe I, qui donc catalyse sa réaction en formant un intermédiaire covalent obligatoire, ou base de Schiff, avec son susbtrat, la TBP aldolase de S. pyogenes partage 14 % d’identité avec l’enzyme modèle de cette famille, la FBP aldolase de muscle de mammifère. Bien que le mécanime catalytique de la FBP aldolase des mammifères ait été examiné en détails et qu’il soit approprié d’en tirer des renseignements quant à celui de la TBP aldolase, le manque singulier de stéréospécificité de cette dernière tant dans le sens du clivage que celui de la condensation n’est toujours pas éclairci. Afin de mettre à jour les caractéristiques du mécanisme enzymatique, une étude structurale de la TBP aldolase de S. pyogenes, un pathogène humain extrêmement versatile, a été entreprise. Elle a permis la résolution des structures de l’enzyme native et mutée, en complexe avec des subtrats et des inhibiteurs compétitifs, à des résolutions comprises entre 1.8 Å et 2.5 Å. Le trempage des cristaux de TBP aldolase native et mutante dans une solution saturante de FBP ou TBP a en outre permis de piéger un authentique intermédiaire covalent lié à la Lys205, la lysine catalytique. La determination des profils pH de la TBP aldolase native et mutée, entreprise afin d'évaluer l’influence du pH sur la réaction de clivage du FBP et TBP et ìdentifier le(s) résidu(s) impliqué(s), en conjonction avec les données structurales apportées par la cristallographie, ont permis d’identifier sans équivoque Glu163 comme résidu responsable du clivage. En effet, le mode de liaison sensiblement différent des ligands utilisés selon la stéréochimie en leur C3 et C4 permet à Glu163, équivalent à Glu187 dans la FBP aldolase de classe I, d’abstraire le proton sur l’hydroxyle du C4 et ainsi d’amorcer le clivage du lien C3-C4. L’étude du mécanimse inverse, celui de la condensation, grâce par exemple à la structure de l’enzyme native en complexe avec ses substrats à trois carbones le DHAP et le G3P, a en outre permis d’identifier un isomérisme du substrat G3P comme possible cause de la synthèse des isomères en C4 par cette enzyme. Ce résultat, ainsi que la decouverte d’un possible isomérisme cis-trans autour du lien C2-C3 de la base de Schiff formée avec le DHAP, identifié précedemment, permet de cerner presque complètement les particularités du mécanisme de cette enzyme et d’expliquer comment elle est capable de synthétiser les quatres stéréoisomères 3(S/R), 4(S/R). De plus, la résolution de ces structures a permis de mettre en évidence trois régions très mobiles de la protéine, ce qui pourrait être relié au rôle postulé de son isozyme chez S. pyogenes dans la régulation de l’expression génétique et de la virulence de la bactérie. Enfin, la résolution de la structure du mutant Lys229→Met de la FBP aldolase de muscle en complexe avec la forme cyclique du FBP, de même que des études cristallographiques sur le mutant équivalent Lys205→Met de la TBP aldolase de S. pyogenes et des expériences de calorimétrie ont permis d’identifier deux résidus particuliers, Ala31 et Asp33 chez la FBP aldolase, comme possible cause de la discrimination de cette enzyme contre les substrats 3(R) et 4(S), et ce par encombrement stérique des substrats cycliques. La cristallographie par rayons X et la cinétique enzymatique ont ainsi permis d'avancer dans l'élucidation du mécanisme et des propriétés structurales de cette enzyme aux caractéristiques particulières.
Resumo:
This thesis presents in detail. the theoretical developments and calculations which are used for the simultaneous determination of thermal parameters, namely thermal diffusivity (a). thermal effusivity (e), thermal conductivity (K) and heat capacity (cr ) employing photopyroelectric technique. In our calculations. we have assumed that the pyroelectric detector is supported on a copper backing. so that there will be sufficient heat exchange between the heated pyroelectric detector and the backing so that the signal fluctuations are reduced to a minimum. Since the PPE signal depends on the properties of the detector that are also temperature dependent. a careful temperature calibration of the system need to be carried out. APPE cell has been fabricated for the measurements that can be used to measure the thermal properties of solid samples from ~ 90 K to ~ 350 K. The cell has been calibrated using standard samples and the accuracy of the technique is found to be of the order of± 1%.In this thesis, we have taken up work n photopyroelectric investigation of thermal parameters of ferroelectric crystals such as Glycine phosphite (NH3CH2COOH3P03), Triglycine sulfate and Thiourea as well as mixed valence perovskites samples such as Lead doped Lanthanum Manganate (Lal_xPb~Mn03) Calcium doped (Lal_xCaxMnOJ) and Nickel doped Lanthanum Stroncium Cobaltate (Lao~Sro5Ni,Col_x03).The three ferroelectric crystals are prepared by the slow evaporation technique and the mixed valence perovskites by solid state reaction technique.Mixed valence perovskites, with the general formula RI_xA~Mn03 (R = La. Nd or Pr and A = Ba, Ca, Sr or Pb) have been materials of intense experimental and theoretical studies over the past few years. These materials show . colossal magneloresis/ance' (CMR) in samples with 0.2 < x < 0.5 in such a doping region, resistivity exhibits a peak at T = T p' the metal - insulator transition temperature. The system exhibits metallic characteristics with d %T > Oabove Tp (wherep is the resistivity) and insulating characteristics with d % T < 0 above T p. Despite intensive investigations on the CMR phenomena and associated electrical properties. not much work has been done on the variation of thermal properties of these samples. We have been quite successful in finding out the nature of anomaly associated with thermal properties when the sample undergoes M-I transition.The ferroelectric crystal showing para-ferroelectric phase transitions - Glycine phosphite. Thiourea and Triglycine sulfate - are studied in detail in order to see how well the PPE technique enables one to measure the thermal parameters during phase transitions. It is seen that the phase transition gets clearly reflected in the variation of thermal parameters. The anisotropy in thermal transport along different crystallographic directions are explained in terms of the elastic anisotropy and lattice contribution to the thermal conductivity. Interesting new results have been obtained on the above samples and are presented in three different chapters of the thesis.In summary. we have carried investigations of the variations of the thermal parameters during phase transitions employing photopyroelectric technique. The results obtained on different systems are important not only in understanding the physics behind the transitions but also in establishing the potentiality of the PPE tool. The full potential of PPE technique for the investigation of optical and thermal properties of materials still remains to be taken advantage of by workers in this field.
Resumo:
The thesis begins with a review of basic elements of general theory of relativity (GTR) which forms the basis for the theoretical interpretation of the observations in cosmology. The first chapter also discusses the standard model in cosmology, namely the Friedmann model, its predictions and problems. We have also made a brief discussion on fractals and inflation of the early universe in the first chapter. In the second chapter we discuss the formulation of a new approach to cosmology namely a stochastic approach. In this model, the dynam ics of the early universe is described by a set of non-deterministic, Langevin type equations and we derive the solutions using the Fokker—Planck formalism. Here we demonstrate how the problems with the standard model, can be eliminated by introducing the idea of stochastic fluctuations in the early universe. Many recent observations indicate that the present universe may be approximated by a many component fluid and we assume that only the total energy density is conserved. This, in turn, leads to energy transfer between different components of the cosmic fluid and fluctuations in such energy transfer can certainly induce fluctuations in the mean to factor in the equation of state p = wp, resulting in a fluctuating expansion rate for the universe. The third chapter discusses the stochastic evolution of the cosmological parameters in the early universe, using the new approach. The penultimate chapter is about the refinements to be made in the present model, by means of a new deterministic model The concluding chapter presents a discussion on other problems with the conventional cosmology, like fractal correlation of galactic distribution. The author attempts an explanation for this problem using the stochastic approach.
Resumo:
Econometrics is a young science. It developed during the twentieth century in the mid-1930’s, primarily after the World War II. Econometrics is the unification of statistical analysis, economic theory and mathematics. The history of econometrics can be traced to the use of statistical and mathematics analysis in economics. The most prominent contributions during the initial period can be seen in the works of Tinbergen and Frisch, and also that of Haavelmo in the 1940's through the mid 1950's. Right from the rudimentary application of statistics to economic data, like the use of laws of error through the development of least squares by Legendre, Laplace, and Gauss, the discipline of econometrics has later on witnessed the applied works done by Edge worth and Mitchell. A very significant mile stone in its evolution has been the work of Tinbergen, Frisch, and Haavelmo in their development of multiple regression and correlation analysis. They used these techniques to test different economic theories using time series data. In spite of the fact that some predictions based on econometric methodology might have gone wrong, the sound scientific nature of the discipline cannot be ignored by anyone. This is reflected in the economic rationale underlying any econometric model, statistical and mathematical reasoning for the various inferences drawn etc. The relevance of econometrics as an academic discipline assumes high significance in the above context. Because of the inter-disciplinary nature of econometrics (which is a unification of Economics, Statistics and Mathematics), the subject can be taught at all these broad areas, not-withstanding the fact that most often Economics students alone are offered this subject as those of other disciplines might not have adequate Economics background to understand the subject. In fact, even for technical courses (like Engineering), business management courses (like MBA), professional accountancy courses etc. econometrics is quite relevant. More relevant is the case of research students of various social sciences, commerce and management. In the ongoing scenario of globalization and economic deregulation, there is the need to give added thrust to the academic discipline of econometrics in higher education, across various social science streams, commerce, management, professional accountancy etc. Accordingly, the analytical ability of the students can be sharpened and their ability to look into the socio-economic problems with a mathematical approach can be improved, and enabling them to derive scientific inferences and solutions to such problems. The utmost significance of hands-own practical training on the use of computer-based econometric packages, especially at the post-graduate and research levels need to be pointed out here. Mere learning of the econometric methodology or the underlying theories alone would not have much practical utility for the students in their future career, whether in academics, industry, or in practice This paper seeks to trace the historical development of econometrics and study the current status of econometrics as an academic discipline in higher education. Besides, the paper looks into the problems faced by the teachers in teaching econometrics, and those of students in learning the subject including effective application of the methodology in real life situations. Accordingly, the paper offers some meaningful suggestions for effective teaching of econometrics in higher education
Resumo:
In dieser Dissertation präsentieren wir zunächst eine Verallgemeinerung der üblichen Sturm-Liouville-Probleme mit symmetrischen Lösungen und erklären eine umfassendere Klasse. Dann führen wir einige neue Klassen orthogonaler Polynome und spezieller Funktionen ein, welche sich aus dieser symmetrischen Verallgemeinerung ableiten lassen. Als eine spezielle Konsequenz dieser Verallgemeinerung führen wir ein Polynomsystem mit vier freien Parametern ein und zeigen, dass in diesem System fast alle klassischen symmetrischen orthogonalen Polynome wie die Legendrepolynome, die Chebyshevpolynome erster und zweiter Art, die Gegenbauerpolynome, die verallgemeinerten Gegenbauerpolynome, die Hermitepolynome, die verallgemeinerten Hermitepolynome und zwei weitere neue endliche Systeme orthogonaler Polynome enthalten sind. All diese Polynome können direkt durch das neu eingeführte System ausgedrückt werden. Ferner bestimmen wir alle Standardeigenschaften des neuen Systems, insbesondere eine explizite Darstellung, eine Differentialgleichung zweiter Ordnung, eine generische Orthogonalitätsbeziehung sowie eine generische Dreitermrekursion. Außerdem benutzen wir diese Erweiterung, um die assoziierten Legendrefunktionen, welche viele Anwendungen in Physik und Ingenieurwissenschaften haben, zu verallgemeinern, und wir zeigen, dass diese Verallgemeinerung Orthogonalitätseigenschaft und -intervall erhält. In einem weiteren Kapitel der Dissertation studieren wir detailliert die Standardeigenschaften endlicher orthogonaler Polynomsysteme, welche sich aus der üblichen Sturm-Liouville-Theorie ergeben und wir zeigen, dass sie orthogonal bezüglich der Fisherschen F-Verteilung, der inversen Gammaverteilung und der verallgemeinerten t-Verteilung sind. Im nächsten Abschnitt der Dissertation betrachten wir eine vierparametrige Verallgemeinerung der Studentschen t-Verteilung. Wir zeigen, dass diese Verteilung gegen die Normalverteilung konvergiert, wenn die Anzahl der Stichprobe gegen Unendlich strebt. Eine ähnliche Verallgemeinerung der Fisherschen F-Verteilung konvergiert gegen die chi-Quadrat-Verteilung. Ferner führen wir im letzten Abschnitt der Dissertation einige neue Folgen spezieller Funktionen ein, welche Anwendungen bei der Lösung in Kugelkoordinaten der klassischen Potentialgleichung, der Wärmeleitungsgleichung und der Wellengleichung haben. Schließlich erklären wir zwei neue Klassen rationaler orthogonaler hypergeometrischer Funktionen, und wir zeigen unter Benutzung der Fouriertransformation und der Parsevalschen Gleichung, dass es sich um endliche Orthogonalsysteme mit Gewichtsfunktionen vom Gammatyp handelt.
Resumo:
Summary: Productivity and forage quality of legume-grass swards are important factors for successful arable farming in both organic and conventional farming systems. For these objectives the botanical composition of the swards is of particular importance, especially, the content of legumes due to their ability to fix airborne nitrogen. As it can vary considerably within a field, a non-destructive detection method while doing other tasks would facilitate a more targeted sward management and could predict the nitrogen supply of the soil for the subsequent crop. This study was undertaken to explore the potential of digital image analysis (DIA) for a non destructive prediction of legume dry matter (DM) contribution of legume-grass mixtures. For this purpose an experiment was conducted in a greenhouse, comprising a sample size of 64 experimental swards such as pure swards of red clover (Trifolium pratense L.), white clover (Trifolium repens L.) and lucerne (Medicago sativa L.) as well as binary mixtures of each legume with perennial ryegrass (Lolium perenne L.). Growth stages ranged from tillering to heading and the proportion of legumes from 0 to 80 %. Based on digital sward images three steps were considered in order to estimate the legume contribution (% of DM): i) The development of a digital image analysis (DIA) procedure in order to estimate legume coverage (% of area). ii) The description of the relationship between legume coverage (% area) and legume contribution (% of DM) derived from digital analysis of legume coverage related to the green area in a digital image. iii) The estimation of the legume DM contribution with the findings of i) and ii). i) In order to evaluate the most suitable approach for the estimation of legume coverage by means of DIA different tools were tested. Morphological operators such as erode and dilate support the differentiation of objects of different shape by shrinking and dilating objects (Soille, 1999). When applied to digital images of legume-grass mixtures thin grass leaves were removed whereas rounder clover leaves were left. After this process legume leaves were identified by threshold segmentation. The segmentation of greyscale images turned out to be not applicable since the segmentation between legumes and bare soil failed. The advanced procedure comprising morphological operators and HSL colour information could determine bare soil areas in young and open swards very accurately. Also legume specific HSL thresholds allowed for precise estimations of legume coverage across a wide range from 11.8 - 72.4 %. Based on this legume specific DIA procedure estimated legume coverage showed good correlations with the measured values across the whole range of sward ages (R2 0.96, SE 4.7 %). A wide range of form parameters (i.e. size, breadth, rectangularity, and circularity of areas) was tested across all sward types, but none did improve prediction accuracy of legume coverage significantly. ii) Using measured reference data of legume coverage and contribution, in a first approach a common relationship based on all three legumes and sward ages of 35, 49 and 63 days was found with R2 0.90. This relationship was improved by a legume-specific approach of only 49- and 63-d old swards (R2 0.94, 0.96 and 0.97 for red clover, white clover, and lucerne, respectively) since differing structural attributes of the legume species influence the relationship between these two parameters. In a second approach biomass was included in the model in order to allow for different structures of swards of different ages. Hence, a model was developed, providing a close look on the relationship between legume coverage in binary legume-ryegrass communities and the legume contribution: At the same level of legume coverage, legume contribution decreased with increased total biomass. This phenomenon may be caused by more non-leguminous biomass covered by legume leaves at high levels of total biomass. Additionally, values of legume contribution and coverage were transformed to the logit-scale in order to avoid problems with heteroscedasticity and negative predictions. The resulting relationships between the measured legume contribution and the calculated legume contribution indicated a high model accuracy for all legume species (R2 0.93, 0.97, 0.98 with SE 4.81, 3.22, 3.07 % of DM for red clover, white clover, and lucerne swards, respectively). The validation of the model by using digital images collected over field grown swards with biomass ranges considering the scope of the model shows, that the model is able to predict legume contribution for most common legume-grass swards (Frame, 1992; Ledgard and Steele, 1992; Loges, 1998). iii) An advanced procedure for the determination of legume DM contribution by DIA is suggested, which comprises the inclusion of morphological operators and HSL colour information in the analysis of images and which applies an advanced function to predict legume DM contribution from legume coverage by considering total sward biomass. Low residuals between measured and calculated values of legume dry matter contribution were found for the separate legume species (R2 0.90, 0.94, 0.93 with SE 5.89, 4.31, 5.52 % of DM for red clover, white clover, and lucerne swards, respectively). The introduced DIA procedure provides a rapid and precise estimation of legume DM contribution for different legume species across a wide range of sward ages. Further research is needed in order to adapt the procedure to field scale, dealing with differing light effects and potentially higher swards. The integration of total biomass into the model for determining legume contribution does not necessarily reduce its applicability in practice as a combined estimation of total biomass and legume coverage by field spectroscopy (Biewer et al. 2009) and DIA, respectively, may allow for an accurate prediction of the legume contribution in legume-grass mixtures.
Resumo:
Self-adaptive software provides a profound solution for adapting applications to changing contexts in dynamic and heterogeneous environments. Having emerged from Autonomic Computing, it incorporates fully autonomous decision making based on predefined structural and behavioural models. The most common approach for architectural runtime adaptation is the MAPE-K adaptation loop implementing an external adaptation manager without manual user control. However, it has turned out that adaptation behaviour lacks acceptance if it does not correspond to a user’s expectations – particularly for Ubiquitous Computing scenarios with user interaction. Adaptations can be irritating and distracting if they are not appropriate for a certain situation. In general, uncertainty during development and at run-time causes problems with users being outside the adaptation loop. In a literature study, we analyse publications about self-adaptive software research. The results show a discrepancy between the motivated application domains, the maturity of examples, and the quality of evaluations on the one hand and the provided solutions on the other hand. Only few publications analysed the impact of their work on the user, but many employ user-oriented examples for motivation and demonstration. To incorporate the user within the adaptation loop and to deal with uncertainty, our proposed solutions enable user participation for interactive selfadaptive software while at the same time maintaining the benefits of intelligent autonomous behaviour. We define three dimensions of user participation, namely temporal, behavioural, and structural user participation. This dissertation contributes solutions for user participation in the temporal and behavioural dimension. The temporal dimension addresses the moment of adaptation which is classically determined by the self-adaptive system. We provide mechanisms allowing users to influence or to define the moment of adaptation. With our solution, users can have full control over the moment of adaptation or the self-adaptive software considers the user’s situation more appropriately. The behavioural dimension addresses the actual adaptation logic and the resulting run-time behaviour. Application behaviour is established during development and does not necessarily match the run-time expectations. Our contributions are three distinct solutions which allow users to make changes to the application’s runtime behaviour: dynamic utility functions, fuzzy-based reasoning, and learning-based reasoning. The foundation of our work is a notification and feedback solution that improves intelligibility and controllability of self-adaptive applications by implementing a bi-directional communication between self-adaptive software and the user. The different mechanisms from the temporal and behavioural participation dimension require the notification and feedback solution to inform users on adaptation actions and to provide a mechanism to influence adaptations. Case studies show the feasibility of the developed solutions. Moreover, an extensive user study with 62 participants was conducted to evaluate the impact of notifications before and after adaptations. Although the study revealed that there is no preference for a particular notification design, participants clearly appreciated intelligibility and controllability over autonomous adaptations.
Resumo:
When training Support Vector Machines (SVMs) over non-separable data sets, one sets the threshold $b$ using any dual cost coefficient that is strictly between the bounds of $0$ and $C$. We show that there exist SVM training problems with dual optimal solutions with all coefficients at bounds, but that all such problems are degenerate in the sense that the "optimal separating hyperplane" is given by ${f w} = {f 0}$, and the resulting (degenerate) SVM will classify all future points identically (to the class that supplies more training data). We also derive necessary and sufficient conditions on the input data for this to occur. Finally, we show that an SVM training problem can always be made degenerate by the addition of a single data point belonging to a certain unboundedspolyhedron, which we characterize in terms of its extreme points and rays.
Resumo:
En la última década, uno de los problemas considerados más relevantes de la política pública colombiana es la Seguridad Alimentaria y Nutricional, que contempla no sólo la disponibilidad y el acceso a los alimentos, sino también la utilización y estabilidad (disponibilidad continua) de alimentos sanos, limpios e inocuos para el consumo humano. En este marco, el gobierno de Garzón dio inicio política pública Bogotá sin indiferencia, junto con el programa Bogotá sin Hambre, que pretendía a través de diversos proyectos garantizar el derecho a la alimentación de la población de escasos recursos; uno de ellos es el proyecto 319 de Agricultura Urbana, el cual presenta continuidad hasta el momento. La presente investigación, realiza una evaluación externa y participativa al proyecto, desentrañando a través de la metodología del marco lógico, los objetivos y metas de dicho proyecto, para seguidamente evaluarlo apoyándose en la propuesta de Cohen y Franco (1992) y García y Ramírez (1994); bajo el supuesto de que su sostenibilidad depende del tipo de huerta, del apoyo institucional y del empoderamiento de los beneficiarios. Desde la mirada de los beneficiarios, se adelantó la evaluación de tres Estudios de Caso que permitieron desvelar los principios que regulan la política pública, las dificultades y problemas estructurales existentes a la misma.
Resumo:
A short video explaining how the next generation of the internet will differ from the web as we currently know it and how these changes will affect a user. The possible problems with the transition are also covered.
Resumo:
En el Plan Maestro de Movilidad se definió y acordó la estructura que tendrá el Sistema Integrado de Transporte Público que empezó a operar en Bogotá a partir del 30 de Junio de 2012. Las implicaciones de este nuevo sistema afectan tanto a los bogotanos, como a las 66 empresas que estaban habilitadas como operadoras del transporte público colectivo y a los transportadores, entre muchos otros factores involucrados. Para la puesta en marcha del SITP, Bogotá se dividió en 13 zonas, las cuales van a estar cubiertas por 432 rutas y tan solo 13 empresas que quedarán como las operadoras del sistema. La implementación del SITP ha sido criticado fuerte y negativamente por parte de los bogotanos, las empresas operadoras, los transportadores y entidades gubernamentales. Esto, debido a varios factores, como las condiciones de la malla vial, el proceso de chatarrización al que entrarán más de 6000 vehículos en el primer año, las exigencias medioambientales con las que deben cumplir los vehículos antiguos que quedarán circulando, los problemas con el nuevo sistema de recaudo, pero sobre todo por la falta de información que se ha dado a la sociedad sobre este cambio, que aunque paulatino, afectará de manera crucial la vida de los Bogotanos.