990 resultados para key innovations
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
Cette recherche qualitative porte sur les innovations pédagogiques utilisées à l’Université de Montréal en contexte de cultures disciplinaires. La recherche visait à étudier les innovations pédagogiques, entendues comme tout enseignement dispensé de manières différentes de la pratique traditionnelle du cours magistral, proposées par les professeurs dans une université fortement engagée en recherche. ll nous a paru utile de contribuer à compléter les savoirs existants dans ce domaine peu exploré, particulièrement lorsque nous savons que les innovations pédagogiques en contexte de cultures disciplinaires n’ont encore pas été étudiées à l’Université de Montréal. D’un point de vue social, la pertinence de cette recherche réside dans le cadre de la valorisation de l’enseignement universitaire souhaitée tant par les politiques, les institutions et la société que les professeurs et, au-delà, elle invite au rééquilibrage des deux piliers indispensables à l’université centrée sur la recherche qui laisse paraître une relation dichotomique marquée entre enseignement et recherche. Deux modes de cueillettes de données ont été privilégiés : les entrevues individuelles semi-structurées et un entretien de groupe auprès de trente-deux professeurs lauréats du Prix d’excellence en enseignement de l’Université de Montréal. Pour cette recherche, nous avons employé la théorisation ancrée comme méthode d’analyse de données recueillies selon d’autres approches. En d’autres mots, nous avons souhaité utiliser la théorisation ancrée comme un « processus » (Paillé, 1994, p. 149) d’analyse des données avec pour objectif d’approfondir l’objet de notre recherche par-delà la simple analyse descriptive sans pour autant prétendre à une théorisation avancée. En premier lieu, nos résultats nous ont permis de connaître les innovations pédagogiques utilisées dans l’enceinte de notre terrain de recherche, l’Université de Montréal et de dresser un portrait actualisé de leurs innovateurs. Nous avons aussi exploré les raisons qui amènent les professeurs à innover, décrit le processus nécessaire à l’innovation pédagogique et expliqué les freins s’opposant à cette dernière. En second lieu, nos résultats énumèrent les différences liées à la matière d’enseignement, au champ de recherche et soulignent le rapport de la discipline à l’innovation comme critère déterminant à son implication. En dernier lieu, nos résultats révèlent l’existence d’une expertise pédagogique partagée au sein de l’Université de Montréal qui permet de rompre la solitude des professeurs par un soutien entre pairs et favorise la transférabilité des innovations pédagogiques d’une culture disciplinaire à une autre. Finalement, nous présentons une théorisation actualisée des paramètres constituant une innovation pédagogique et détaillons les nouveaux paramètres qui influent sur la construction d’une innovation pédagogique. Nous concluons cette thèse par des recommandations et des pistes de recherches.
Resumo:
En 2006, un hôpital universitaire de la région de Montréal a décidé d’implanter le projet « Hôpital Promoteur de Santé » dans un contexte où les conditions de travail des infirmières étaient particulièrement difficiles. Une étude de cas a été menée dans le CHU, afin de mieux comprendre le contexte interne d’implantation du sous-projet ‘milieu de travail promoteur de santé’. Des entrevues ont été menées auprès de 7 acteurs-clés du niveau stratégique et 18 infirmières-chefs pour examiner leurs perceptions relativement à l’implantation du projet HPS, et plus particulièrement d’un ‘milieu de travail promoteur de santé’ pour les infirmières. Un questionnaire a aussi été administré par entrevue à quatre acteurs-clés stratégiques du CHU afin d’évaluer la compatibilité des pratiques organisationnelles avec les critères d’une des dimensions du projet HPS, le milieu de travail promoteur de santé. Les résultats montrent des similitudes et des différences parmi les perceptions des acteurs stratégiques au sujet du contexte interne d’implantation. Les similitudes portent sur l’utilité, la compatibilité du sous-projet ‘milieu de travail promoteur de santé’ avec les valeurs de l’organisation, la nécessité d’une implantation graduelle ainsi que sur l’existence d’obstacles à l’implantation. Les différences ont mené à cinq discours d'acteurs stratégiques aux niveaux d’engagement différents, en fonction de facteurs d'intelligibilité (i.e. compréhension du concept HPS, rôle perçu dans l'implantation, stratégie d'implantation, vision des implications du concept HPS). Les résultats révèlent aussi que toutes les infirmières-chefs perçoivent l’utilité et la compatibilité du sous-projet ‘milieu de travail promoteur de santé’ avec les valeurs, normes, stratégies et buts organisationnels, ainsi que les mêmes obstacles à son implantation perçus par les acteurs stratégiques. Ils montrent aussi l’existence de deux groupes différents chez les infirmières-chefs quant aux stratégies proposées et utilisées pour implanter un ‘milieu de travail promoteur de santé’. Ainsi, les stratégies des infirmières-chefs du groupe 1 peuvent être assimilées à celles de leaders transactionnels, tandis que les infirmières-chefs du groupe 2 peuvent être assimilées à celles de leaders transformationnels. Finalement, les résultats de l’analyse des données du questionnaire indiquent divers niveaux de compatibilité des pratiques de l’hôpital par rapport aux critères d’un ‘milieu de travail promoteur de santé’. Ainsi, la compatibilité est élevée pour les critères portant sur l'organisation apprenante et performante, les stratégies pour un milieu de travail sain et sécuritaire, les activités liées à la promotion de saines habitudes de vie ainsi que les modifications de l'environnement physique et social. Cependant, elle est faible pour les critères portant sur la politique de promotion de la santé et la participation des infirmières. Notre étude a souligné l’importance de l’état de préparation d’une organisation de santé à l’implantation d’une innovation, un concept peu étudié dans les études sur l’implantation efficace d’innovations dans les services de santé, plus particulièrement du projet HPS. Nos résultats ont également mis en évidence l’importance, pour un hôpital souhaitant implanter un milieu de travail promoteur de santé, de former son personnel et ses gestionnaires au sujet du projet HPS, de disposer d’un plan de communication efficace, et de réaliser un état des lieux préalablement à l’implantation.
Resumo:
Au-delà des variables climatiques, d’autres facteurs non climatiques sont à considérer dans l’analyse de la vulnérabilité et de l’adaptation au changement et variabilité climatiques. Cette mutation de paradigme place l’agent humain au centre du processus d’adaptation au changement climatique, notamment en ce qui concerne le rôle des réseaux sociaux dans la transmission des nouvelles idées. Dans le domaine de l’agriculture, le recours aux innovations est prôné comme stratégie d’adaptation. L’élaboration et l’appropriation de ces stratégies d’adaptation peuvent être considérées comme des processus d’innovation qui dépendent autant du contexte social et culturel d’un territoire, de sa dynamique, ainsi que de la stratégie elle-même. Aussi, l’appropriation et la diffusion d’une innovation s’opèrent à partir d’un processus décisionnel à l’échelle de l’exploitation agricole, qui à son tour, demande une compréhension des multiples forces et facteurs externes et internes à l’exploitation et les multiples objectifs de l’exploitant. Ainsi, la compréhension de l’environnement décisionnel de l’exploitant agricole à l’échelle de la ferme est vitale, car elle est un préalable incontournable au succès et à la durabilité de toute politique d’adaptation de l’agriculture. Or, dans un secteur comme l’agriculture, il est reconnu que les réseaux sociaux par exemple, jouent un rôle crucial dans l’adaptation notamment, par le truchement de la diffusion des innovations. Aussi, l’objectif de cette recherche est d’analyser comment les exploitants agricoles s’approprient et conçoivent les stratégies d’adaptation au changement et à la variabilité climatiques dans une perspective de diffusion des innovations. Cette étude a été menée en Montérégie-Ouest, région du sud-ouest du Québec, connue pour être l’une des plus importantes régions agricoles du Québec, en raison des facteurs climatiques et édaphiques favorables. Cinquante-deux entrevues ont été conduites auprès de différents intervenants à l’agriculture aux niveaux local et régional. L’approche grounded theory est utilisée pour analyser, et explorer les contours de l’environnement décisionnel des exploitants agricoles relativement à l’utilisation des innovations comme stratégie d’adaptation. Les résultats montrent que les innovations ne sont pas implicitement conçues pour faire face aux changements et à la variabilité climatiques même si l’évolution du climat influence leur émergence, la décision d’innover étant largement déterminée par des considérations économiques. D’autre part, l‘étude montre aussi une faiblesse du capital sociale au sein des exploitants agricoles liée à l’influence prépondérante exercée par le secteur privé, principal fournisseur de matériels et intrants agricoles. L’influence du secteur privé se traduit par la domination des considérations économiques sur les préoccupations écologiques et la tentation du profit à court terme de la part des exploitants agricoles, ce qui pose la problématique de la soutenabilité des interventions en matière d’adaptation de l’agriculture québécoise. L’étude fait ressortir aussi la complémentarité entre les réseaux sociaux informels et les structures formelles de soutien à l’adaptation, de même que la nécessité d’établir des partenariats. De plus, l’étude place l’adaptation de l’agriculture québécoise dans une perspective d’adaptation privée dont la réussite repose sur une « socialisation » des innovations, laquelle devrait conduire à l’émergence de processus institutionnels formels et informels. La mise en place de ce type de partenariat peut grandement contribuer à améliorer le processus d’adaptation à l’échelle locale.
Resumo:
La mondialisation a favorisé l’essor de l’innovation collaborative entraînant une augmentation du nombre de partenariats entre différents acteurs. Grâce à leurs avantages multiples, les projets conjoints jouent un rôle fondamental dans le développement économique et industriel des secteurs à forte valeur ajoutée. Dans cette optique, la création ou la quantification de valeur par l’innovation collaborative repose en grande partie sur la capacité à commercialiser des innovations encadrées par une protection intellectuelle adéquate. Ainsi, la tendance mondiale témoigne d’une augmentation accrue des dépôts conjoints de brevets entre diverses entités. Ces co-dépôts soulèvent une variété de questions juridiques puisque les régimes statutaires ne sont pas nécessairement adaptés à la réalité des partenariats. D’abord, les régimes lacunaires proposés par les lois n’anticipent pas les conséquences juridiques de l’interaction entre divers acteurs. La variété de configurations d’intervenants et la typologie des partenariats entraînent une confusion entre les inventeurs et les propriétaires lors du dépôt d’une demande de brevet. Cette situation peut également induire de facto la copropriété d’un brevet pouvant causer des litiges et miner l’énorme valeur des brevets conjoints. Ensuite, les régimes statutaires sont également déficients à l’étape de l’exploitation d’un brevet conjoint. En comparant les régimes juridiques canadiens et américains, il devient possible de mieux cerner les enjeux juridiques associés aux questionnements présents lors de l’élaboration d’un partenariat. Afin d’obtenir des retombées fructueuses des brevets conjoints, une mise en forme contractuelle est proposée pour pallier ces lacunes statutaires. Grâce à des outils contractuels et à une planification pré-contractuelle, les copropriétaires pourront réaliser l’énorme potentiel de cette institution.
Resumo:
Injectable drug nanocarriers have greatly benefited in their clinical development from the addition of a superficial hydrophilic corona to improve their cargo pharmacokinetics. The most studied and used polymer for this purpose is poly(ethylene glycol), PEG. However, in spite of its wide use for over two decades now, there is no general consensus on the optimum PEG chain coverage-density and size required to escape from the mononuclear phagocyte system and to extend the circulation time. Moreover, cellular uptake and active targeting may have conflicting requirements in terms of surface properties of the nanocarriers which complicates even more the optimization process. These persistent issues can be largely attributed to the lack of straightforward characterization techniques to assess the coverage-density, the conformation or the thickness of a PEG layer grafted or adsorbed on a particulate drug carrier and is certainly one of the main reasons why so few clinical applications involving PEG coated particle-based drug delivery systems are under clinical trial so far. The objective of this review is to provide the reader with a brief description of the most relevant techniques used to assess qualitatively or quantitatively PEG chain coverage-density, conformation and layer thickness on polymeric nanoparticles. Emphasis has been made on polymeric particle (solid core) either made of copolymers containing PEG chains or modified after particle formation. Advantages and limitations of each technique are presented as well as methods to calculate PEG coverage-density and to investigate PEG chains conformation on the NP surface.
Resumo:
La documentation scientifique fait état de la présence, chez l’adulte, de cellules souches et progénitrices neurales (CSPN) endogènes dans les zones sous-ventriculaire et sous-granulaire du cerveau ainsi que dans le gyrus denté de l’hippocampe. De plus, un postulat selon lequel il serait également possible de retrouver ce type de cellules dans la moelle épinière et le néocortex des mammifères adultes a été énoncé. L’encéphalopathie de Wernicke, un trouble neurologique grave toutefois réversible qui entraîne un dysfonctionnement, voire une défaillance du cerveau, est causée principalement par une carence importante en thiamine (CT). Des observations récentes laissent envisager que les facteurs en cause dans la prolifération et la différenciation des CSPN pourraient également jouer un rôle important lors d’un épisode de CT. L’hypothèse, selon laquelle l’identification de nouveaux métabolites entrant dans le mécanisme ou la séquence de réactions se soldant en une CT pourraient en faciliter la compréhension, a été émise au moyen d'une démarche en cours permettant d’établir le profil des modifications métaboliques qui surviennent en de telles situations. Cette approche a été utilisée pour constater les changements métaboliques survenus au niveau du foyer cérébral dans un modèle de rats déficients en thiamine (rats DT), particulièrement au niveau du thalamus et du colliculus inférieur (CI). La greffe de CSPN a quant à elle été envisagée afin d’apporter de nouvelles informations sur la participation des CSPN lors d’un épisode de CT et de déterminer les bénéfices thérapeutiques potentiels offerts par cette intervention. Les sujets de l’étude étaient répartis en quatre groupes expérimentaux : un premier groupe constitué de rats dont la CT était induite par la pyrithiamine (rats DTiP), un deuxième groupe constitué de rats-contrôles nourris ensemble (« pair-fed control rats » ou rats PFC) ainsi que deux groupes de rats ayant subi une greffe de CSPN, soit un groupe de rats DTiP greffés et un dernier groupe constitué de rats-contrôles (rats PFC) greffés. Les échantillons de foyers cérébraux (thalamus et CI) des quatre groupes de rats ont été prélevés et soumis à des analyses métabolomiques non ciblées ainsi qu’à une analyse visuelle par microscopie à balayage électronique (SEM). Une variété de métabolites-clés a été observée chez les groupes de rats déficients en thiamine (rats DTiP) en plus de plusieurs métabolites dont la documentation ne faisait pas mention. On a notamment constaté la présence d’acides biliaires, d’acide cynurénique et d’acide 1,9— diméthylurique dans le thalamus, alors que la présence de taurine et de carnosine a été observée dans le colliculus inférieur. L’étude a de plus démontré une possible implication des CSPN endogènes dans les foyers cérébraux du thalamus et du colliculus inférieur en identifiant les métabolites-clés ciblant les CSPN. Enfin, les analyses par SEM ont montré une amélioration notable des tissus à la suite de la greffe de CSPN. Ces constatations suggèrent que l’utilisation de CSPN pourrait s’avérer une avenue thérapeutique intéressante pour soulager la dégénérescence symptomatique liée à une grave carence en thiamine chez l’humain.
Resumo:
This article discusses the relationship between digital humanities and disciplinary boundaries in the last decade, primarily in the context of the national project Synergies. It offers first an overview of Synergies as a concrete example of the way technological change impacts the very notion of disciplines by trying to create a platform that was interdisciplinary by nature, then discusses the creation of a new Digital Humanities centre in Québec—Le Centre de recherche interuniversitaire sur les humanités numériques – and the ways it was conceived as encompassing a range of disciplinary approach.
Resumo:
n the recent years protection of information in digital form is becoming more important. Image and video encryption has applications in various fields including Internet communications, multimedia systems, medical imaging, Tele-medicine and military communications. During storage as well as in transmission, the multimedia information is being exposed to unauthorized entities unless otherwise adequate security measures are built around the information system. There are many kinds of security threats during the transmission of vital classified information through insecure communication channels. Various encryption schemes are available today to deal with information security issues. Data encryption is widely used to protect sensitive data against the security threat in the form of “attack on confidentiality”. Secure transmission of information through insecure communication channels also requires encryption at the sending side and decryption at the receiving side. Encryption of large text message and image takes time before they can be transmitted, causing considerable delay in successive transmission of information in real-time. In order to minimize the latency, efficient encryption algorithms are needed. An encryption procedure with adequate security and high throughput is sought in multimedia encryption applications. Traditional symmetric key block ciphers like Data Encryption Standard (DES), Advanced Encryption Standard (AES) and Escrowed Encryption Standard (EES) are not efficient when the data size is large. With the availability of fast computing tools and communication networks at relatively lower costs today, these encryption standards appear to be not as fast as one would like. High throughput encryption and decryption are becoming increasingly important in the area of high-speed networking. Fast encryption algorithms are needed in these days for high-speed secure communication of multimedia data. It has been shown that public key algorithms are not a substitute for symmetric-key algorithms. Public key algorithms are slow, whereas symmetric key algorithms generally run much faster. Also, public key systems are vulnerable to chosen plaintext attack. In this research work, a fast symmetric key encryption scheme, entitled “Matrix Array Symmetric Key (MASK) encryption” based on matrix and array manipulations has been conceived and developed. Fast conversion has been achieved with the use of matrix table look-up substitution, array based transposition and circular shift operations that are performed in the algorithm. MASK encryption is a new concept in symmetric key cryptography. It employs matrix and array manipulation technique using secret information and data values. It is a block cipher operated on plain text message (or image) blocks of 128 bits using a secret key of size 128 bits producing cipher text message (or cipher image) blocks of the same size. This cipher has two advantages over traditional ciphers. First, the encryption and decryption procedures are much simpler, and consequently, much faster. Second, the key avalanche effect produced in the ciphertext output is better than that of AES.
Resumo:
“At resale stores I have seen brand new clothes with original price tag still hanging from the sleeve. Some children have so many toys that they stay frustrated, not knowing which one to pick up for their next amusement. Presumably sensible adults trade in perfectly good cars just to have something shinier and newer. Didn’t us once live productive normal lives, without all these gadgets” [Cunningham (2005)]. During late eighties, nearly forty four percent of the participants, who took part in a consumer survey conducted in the US, responded positively to the question “My closets are filled with still 2 unopened items” [Faber and O’Guinn (1988)]. Reading such excerpts does not greatly surprise us anymore; as such reports have become common now. For many people shopping has moved beyond something that caters to their needs and wants and has become a hobby [Cunningham (2005)], an activity that they engage in to satisfy their hedonistic or pleasure-seeking goals [Ramnathan and Menon(2006), O’Cass and McEween (2004), Faber and O’Guinn (1989)]. Others look at their new possession as something that fills a void in their lives [Belk (1985), Diener et al. (1993)].
Resumo:
Cooperative caching in mobile ad hoc networks aims at improving the efficiency of information access by reducing access latency and bandwidth usage. Cache replacement policy plays a vital role in improving the performance of a cache in a mobile node since it has limited memory. In this paper we propose a new key based cache replacement policy called E-LRU for cooperative caching in ad hoc networks. The proposed scheme for replacement considers the time interval between the recent references, size and consistency as key factors for replacement. Simulation study shows that the proposed replacement policy can significantly improve the cache performance in terms of cache hit ratio and query delay
Resumo:
This paper highlights the prediction of learning disabilities (LD) in school-age children using rough set theory (RST) with an emphasis on application of data mining. In rough sets, data analysis start from a data table called an information system, which contains data about objects of interest, characterized in terms of attributes. These attributes consist of the properties of learning disabilities. By finding the relationship between these attributes, the redundant attributes can be eliminated and core attributes determined. Also, rule mining is performed in rough sets using the algorithm LEM1. The prediction of LD is accurately done by using Rosetta, the rough set tool kit for analysis of data. The result obtained from this study is compared with the output of a similar study conducted by us using Support Vector Machine (SVM) with Sequential Minimal Optimisation (SMO) algorithm. It is found that, using the concepts of reduct and global covering, we can easily predict the learning disabilities in children
Resumo:
In symmetric block ciphers, substitution and diffusion operations are performed in multiple rounds using sub-keys generated from a key generation procedure called key schedule. The key schedule plays a very important role in deciding the security of block ciphers. In this paper we propose a complex key generation procedure, based on matrix manipulations, which could be introduced in symmetric ciphers. The proposed key generation procedure offers two advantages. First, the procedure is simple to implement and has complexity in determining the sub-keys through crypt analysis. Secondly, the procedure produces a strong avalanche effect making many bits in the output block of a cipher to undergo changes with one bit change in the secret key. As a case study, matrix based key generation procedure has been introduced in Advanced Encryption Standard (AES) by replacing the existing key schedule of AES. The key avalanche and differential key propagation produced in AES have been observed. The paper describes the matrix based key generation procedure and the enhanced key avalanche and differential key propagation produced in AES. It has been shown that, the key avalanche effect and differential key propagation characteristics of AES have improved by replacing the AES key schedule with the Matrix based key generation procedure
Resumo:
Diabetes mellitus is a heterogeneous metabolic disorder characterized by hyperglycemia with disturbances in carbohydrate, protein and lipid metabolism resulting from defects in insulin secretion, insulin action or both. Currently there are 387 million people with diabetes worldwide and is expected to affect 592 million people by 2035. Insulin resistance in peripheral tissues and pancreatic beta cell dysfunction are the major challenges in the pathophysiology of diabetes. Diabetic secondary complications (like liver cirrhosis, retinopathy, microvascular and macrovascular complications) arise from persistent hyperglycemia and dyslipidemia can be disabling or even life threatening. Current medications are effective for control and management of hyperglycemia but undesirable effects, inefficiency against secondary complications and high cost are still serious issues in the present prognosis of this disorder. Hence the search for more effective and safer therapeutic agents of natural origin has been found to be highly demanding and attract attention in the present drug discovery research. The data available from Ayurveda on various medicinal plants for treatment of diabetes can efficiently yield potential new lead as antidiabetic agents. For wider acceptability and popularity of herbal remedies available in Ayurveda scientific validation by the elucidation of mechanism of action is very much essential. Modern biological techniques are available now to elucidate the biochemical basis of the effectiveness of these medicinal plants. Keeping this idea the research programme under this thesis has been planned to evaluate the molecular mechanism responsible for the antidiabetic property of Symplocos cochinchinensis, the main ingredient of Nishakathakadi Kashayam, a wellknown Ayurvedic antidiabetic preparation. A general introduction of diabetes, its pathophysiology, secondary complications and current treatment options, innovative solutions based on phytomedicine etc has been described in Chapter 1. The effect of Symplocos cochinchinensis (SC), on various in vitro biochemical targets relevant to diabetes is depicted in Chapter 2 including the preparation of plant extract. Since diabetes is a multifactorial disease, ethanolic extract of the bark of SC (SCE) and its fractions (hexane, dichloromethane, ethyl acetate and 90 % ethanol) were evaluated by in vitro methods against multiple targets such as control of postprandial hyperglycemia, insulin resistance, oxidative stress, pancreatic beta cell proliferation, inhibition of protein glycation, protein tyrosine phosphatase-1B (PTP-1B) and dipeptidyl peptidase-IV (DPPxxi IV). Among the extracts, SCE exhibited comparatively better activity like alpha glucosidase inhibition, insulin dependent glucose uptake (3 fold increase) in L6 myotubes, pancreatic beta cell regeneration in RIN-m5F and reduced triglyceride accumulation in 3T3-L1 cells, protection from hyperglycemia induced generation of reactive oxygen species in HepG2 cells with moderate antiglycation and PTP-1B inhibition. Chemical characterization by HPLC revealed the superiority of SCE over other extracts due to presence of bioactives (beta-sitosterol, phloretin 2’glucoside, oleanolic acid) in addition to minerals like magnesium, calcium, potassium, sodium, zinc and manganese. So SCE has been subjected to oral sucrose tolerance test (OGTT) to evaluate its antihyperglycemic property in mild diabetic and diabetic animal models. SCE showed significant antihyperglycemic activity in in vivo diabetic models. Chapter 3 highlights the beneficial effects of hydroethanol extract of Symplocos cochinchinensis (SCE) against hyperglycemia associated secondary complications in streptozotocin (60 mg/kg body weight) induced diabetic rat model. Proper sanction had been obtained for all the animal experiments from CSIR-CDRI institutional animal ethics committee. The experimental groups consist of normal control (NC), N + SCE 500 mg/kg bwd, diabetic control (DC), D + metformin 100 mg/kg bwd, D + SCE 250 and D + SCE 500. SCEs and metformin were administered daily for 21 days and sacrificed on day 22. Oral glucose tolerance test, plasma insulin, % HbA1c, urea, creatinine, aspartate aminotransferase (AST), alanine aminotransferase (ALT), albumin, total protein etc. were analysed. Aldose reductase (AR) activity in the eye lens was also checked. On day 21, DC rats showed significantly abnormal glucose response, HOMA-IR, % HbA1c, decreased activity of antioxidant enzymes and GSH, elevated AR activity, hepatic and renal oxidative stress markers compared to NC. DC rats also exhibited increased level of plasma urea and creatinine. Treatment with SCE protected from the deleterious alterations of biochemical parameters in a dose dependent manner including histopathological alterations in pancreas. SCE 500 exhibited significant glucose lowering effect and decreased HOMA-IR, % HbA1c, lens AR activity, and hepatic, renal oxidative stress and function markers compared to DC group. Considerable amount of liver and muscle glycogen was replenished by SCE treatment in diabetic animals. Although metformin showed better effect, the activity of SCE was very much comparable with this drug. xxii The possible molecular mechanism behind the protective property of S. cochinchinensis against the insulin resistance in peripheral tissue as well as dyslipidemia in in vivo high fructose saturated fat diet model is described in Chapter 4. Initially animal were fed a high fructose saturated fat (HFS) diet for a period of 8 weeks to develop insulin resistance and dyslipidemia. The normal diet control (ND), ND + SCE 500 mg/kg bwd, high fructose saturated fat diet control (HFS), HFS + metformin 100 mg/kg bwd, HFS + SCE 250 and HFS + SCE 500 were the experimental groups. SCEs and metformin were administered daily for the next 3 weeks and sacrificed at the end of 11th week. At the end of week 11, HFS rats showed significantly abnormal glucose and insulin tolerance, HOMA-IR, % HbA1c, adiponectin, lipid profile, liver glycolytic and gluconeogenic enzyme activities, liver and muscle triglyceride accumulation compared to ND. HFS rats also exhibited increased level of plasma inflammatory cytokines, upregulated mRNA level of gluconeogenic and lipogenic genes in liver. HFS exhibited the increased expression of GLUT-2 in liver and decreased expression of GLUT-4 in muscle and adipose. SCE treatment also preserved the architecture of pancreas, liver, and kidney tissues. Treatment with SCE reversed the alterations of biochemical parameters, improved insulin sensitivity by modifying gene expression in liver, muscle and adipose tissues. Overall results suggest that SC mediates the antidiabetic activity mainly via alpha glucosidase inhibition, improved insulin sensitivity, with antiglycation and antioxidant activities.