969 resultados para Formule du nombre de classes de Dirichlet


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les premières cellules progénitrices lympho-myéloïdes (LMPP) entrent dans le thymus et commencent leur processus de différenciation au stade double négatif (DN, CD4-CD8-). Après un réarrangement fonctionnel de la chaine bêta de leur récepteur des cellules T (RCT), les cellules reçoivent des signaux de différenciation, de prolifération, de survie et de sélection et passent au stade double positif (DP, CD4+CD8+). Ensuite, la chaine alpha du RCT est réarrangée et testée via les sélections positive et négative. Si le RCT reçoit un signal ni trop fort, ni trop faible, les cellules passent au stade simple positif où elles exprimeront soit la molécule CD4 ou CD8. ERK3, une MAPK non-conventionnelle, joue un rôle important dans le développement thymique. Des études précédentes ont démontré qu’une déficience en ERK3 diminue de 50 % la cellularité thymique et de 75% le nombre de cellules simples positives CD4 (CD4SP). Nous avons posé comme hypothèses qu’il y a une augmentation de l’apoptose chez les thymocytes DP de souris Erk3-/- et que cette déficience chez les thymocytes DP affecterait la sélection positive des cellules DP, réduisant ainsi le nombre de thymocytes CD4SP. Afin de vérifier la première hypothèse, nous avons regardé les niveaux d’apoptose grâce à la cytométrie en flux et par immunohistochimie. Dans les deux cas, nous étions incapables de détecter une différence du niveau d’apoptose chez les thymocytes DP entre les souris Erk3+/+ et Erk3-/-. Ensuite, nous nous sommes posés la question suivante : La demi-vie des thymocytes DP Erk3-/- était-elle plus courte que le type sauvage? La demi-vie des thymocytes DP a été mesurée à l’aide de l’étude des réarrangements secondaires de la chaine alpha du RCT par PCR semi-quantitatif et à l’aide de cultures de thymus fœtaux. En effet, ERK3 semble important pour prolonger la demi-vie des thymocytes DP. Ensuite, nous avons utilisé des marqueurs cellulaires différentiels (CD69, CD5 et RCT) pour regarder si les thymocytes DP sont capables de passer la sélection positive. En effet, il y a moins de thymocytes DP Erk3-/- qui sont CD69fort, CD5fort et RCTfort. Finalement, nous voulons savoir si les fonctions de ERK3 passent par MK5, son seul partenaire d’interaction connu à ce jour. Après la caractérisation du thymus de la souris Mk5-/-, nous observons que seulement la réduction du nombre de thymocytes CD4SP est identique à celle des thymocytes CD4SP de la souris Erk3-/-. En conclusion, ces résultats révèlent des fonctions importantes pour la molécule ERK3 lors du processus de sélection positive, le maintient de la demi-vie des thymocytes DP et lors de la régulation de développement thymique de manière MK5-dépendante et -indépendante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : La prévention de la mort de cellules cardiaques contractiles suite à un épisode d'infarctus du myocarde représente le plus grand défi dans la récupération de la fonction cardiaque. On a démontré à maintes reprises que l'ocytocine (OT), l'hormone bien connue pour ses rôles dans le comportement social et reproductif et couramment utilisée dans l’induction de l’accouchement, diminue la taille de l'infarctus et améliore la récupération fonctionnelle du myocarde blessé. Les mécanismes de cette protection ne sont pas totalement compris. Objectif : Étudier les effets d'un traitement avec de l'ocytocine sur des cardiomyocytes isolés en utilisant un modèle in vitro qui simule les conditions d'un infarctus du myocarde. Méthodes : La lignée cellulaire myoblastique H9c2 a été utilisée comme modèle de cardiomyocyte. Pour simuler le dommage d'ischémie-reperfusion (IR), les cellules ont été placées dans un tampon ischémique et incubées dans une chambre anoxique pendant 2 heures. La reperfusion a été accomplie par la restauration du milieu de culture régulier dans des conditions normales d'oxygène. L'OT a été administrée en présence ou en absence d'inhibiteurs de kinases connues pour être impliquées dans la cardioprotection. La mortalité cellulaire a été évaluée par TUNEL et l'activité mitochondriale par la production de formazan pendant 1 à 4 heures de reperfusion. La microscopie confocale a servie pour localiser les structures cellulaires. Résultats : Le modèle expérimental de l'IR dans les cellules H9c2 a été caractérisé par une diminution dans la production de formazan (aux alentours de 50 à 70 % du groupe témoin, p < 0.001) et par l'augmentation du nombre de noyaux TUNEL-positif (11.7 ± 4.5% contre 1.3 ± 0.7% pour le contrôle). L'addition de l'OT (10-7 a 10-9 M) au commencement de la reperfusion a inversé les effets de l'IR jusqu'aux niveaux du contrôle (p < 0.001). L'effet protecteur de l'OT a été abrogé par : i) un antagoniste de l'OT ; ii) le knockdown de l'expression du récepteur à l'OT induit par le siRNA ; iii) la wortmannin, l'inhibiteur de phosphatidylinositol 3-kinases ; iv) KT5823, l'inhibiteur de la protéine kinase dépendante du cGMP (PKG); v) l'ODQ, un inhibiteur du guanylate cyclase (GC) soluble, et A71915, un antagoniste du GC membranaire. L'analyse confocale des cellules traitées avec OT a révélé la translocation du récepteur à l'OT et la forme phosphorylée de l'Akt (Thr 308, p-Akt) dans le noyau et dans les mitochondries. Conclusions : L'OT protège directement la viabilité des cardiomyocytes, lorsqu'elle est administrée au début de la reperfusion, par le déclenchement de la signalisation du PI3K, la phosphorylation de l'Akt et son trafic cellulaire. La cytoprotection médiée par l'OT implique la production de cGMP par les deux formes de GC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade M.S. ès sciences (M. Sc) en sciences infirmières, option administration des sciences infirmières

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tolérance immunitaire dépend de la distinction entre le soi et le non soi par le système immunitaire. Un bris dans la tolérance immunitaire mène à l'auto-immunité, qui peut provoquer la destruction des organes, des glandes, des articulations ou du système nerveux central. Le diabète auto-immun, également connu sous le nom diabète juvénile et diabète de type 1, résulte d'une attaque auto-immune sur les cellules β pancréatiques sécrétrices d’insuline, localisées au niveau des îlots de Langerhans du pancréas. Bien que le diabète auto-immun soit traitable par une combinaison d’injections quotidiennes d’insuline d’origine exogène, de régime et d'exercices, beaucoup de complications chroniques peuvent se manifester chez les patients, y compris, mais non limitées à, la cécité, les maladies cardiovasculaires, l’insuffisance rénale et l'amputation. En raison des nombreuses complications liées au diabète auto-immun à long terme, la recherche continue afin de mieux comprendre tous les facteurs impliqués dans la progression de la maladie dans le but de développer de nouvelles thérapies qui empêcheront, renverseront et/ou traiteront cette maladie. Un rôle primordial dans la génération et l'entretien de la tolérance immunitaire a été attribué au nombre et à la fonction des sous-populations de cellules régulatrices. Une de ces populations est constituée de cellules T CD4-CD8- (double négatives, DN), qui ont été étudiées chez la souris et l'humain pour leur contribution à la tolérance périphérique, à la prévention des maladies et pour leur potentiel associé à la thérapie cellulaire. En effet, les cellules de T DN sont d'intérêt thérapeutique parce qu'elles montrent un potentiel immunorégulateur antigène-spécifique dans divers cadres expérimentaux, y compris la prévention du diabète auto-immun. D’ailleurs, en utilisant un système transgénique, nous avons démontré que les souris prédisposées au diabète auto-immun présentent peu de cellules T DN, et que ce phénotype contribue à la susceptibilité au diabète auto-immun. En outre, un transfert des cellules T DN est suffisant pour empêcher la progression vers le diabète chez les souris prédisposées au diabète auto-immun. Ces résultats suggèrent que les cellules T DN puissent présenter un intérêt thérapeutique pour les patients diabétiques. Cependant, nous devons d'abord valider ces résultats en utilisant un modèle non-transgénique, qui est plus physiologiquement comparable à l'humain. L'objectif principal de cette thèse est de définir la fonction immunorégulatrice des cellules T DN, ainsi que le potentiel thérapeutique de celles-ci dans la prévention du diabète auto-immun chez un modèle non-transgénique. Dans cette thèse, on démontre que les souris résistantes au diabète auto-immun présentent une proportion et nombre absolu plus élevés de cellules T DN non-transgéniques, lorsque comparées aux souris susceptibles. Cela confirme une association entre le faible nombre de cellules T DN et la susceptibilité à la maladie. On observe que les cellules T DN éliminent les cellules B activées in vitro par une voie dépendante de la voie perforine et granzyme, où la fonction des cellules T DN est équivalente entre les souris résistantes et prédisposées au diabète auto-immun. Ces résultats confirment que l'association au diabète auto-immun est due à une insuffisance en terme du nombre de cellules T DN, plutôt qu’à une déficience fonctionnelle. On démontre que les cellules T DN non-transgéniques éliminent des cellules B chargées avec des antigènes d'îlots, mais pas des cellules B chargées avec un antigène non reconnu, in vitro. Par ailleurs, on établit que le transfert des cellules T DN activées peut empêcher le développement du diabète auto-immun dans un modèle de souris non-transgénique. De plus, nous observons que les cellules T DN migrent aux îlots pancréatiques, et subissent une activation et une prolifération préférentielles au niveau des ganglions pancréatiques. D'ailleurs, le transfert des cellules T DN entraîne une diminution d'auto-anticorps spécifiques de l'insuline et de cellules B de centres germinatifs directement dans les îlots, ce qui corrèle avec les résultats décrits ci-dessus. Les résultats présentés dans cette thèse permettent de démontrer la fonction des cellules T DN in vitro et in vivo, ainsi que leur potentiel lié à la thérapie cellulaire pour le diabète auto-immun.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des études récentes ont montré que le noyau caudé interagissait avec le cortex préfrontal et qu’il pourrait être impliqué dans les fonctions exécutives. Le but de cette thèse était d’étudier la contribution du noyau caudé dans les fonctions exécutives, plus précisément dans des tâches de monitoring et de changement de règle, et d’observer comment ces régions fronto-striatales interagissent avec le réseau par défaut (RPD). Dans un premier temps, nous avons étudié le rôle du noyau caudé dans les deux types de monitoring : le monitoring d’origine interne, consistant à effectuer un suivi sur l’état de l’information en mémoire de travail afin de pouvoir faire un choix subséquent, et dans le monitoring d’origine externe où le suivi sur l’état des items est effectué par l’individu, mais la sélection est exécutée par une source externe. Il a été montré que le cortex préfrontal dorsolatéral (CPFDL) est impliqué dans les deux types de monitoring. À l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), nos résultats ont montré une augmentation significative du signal BOLD au niveau du CPFDL dans les contrastes des conditions de monitoring d’origine interne et monitoring d’origine externe par rapport à la condition contrôle. De manière plus importante, une augmentation significative de l’activité a été observée dans le noyau caudé seulement dans les soustractions impliquant le monitoring d’origine interne par rapport à la condition contrôle, et par rapport à la condition de monitoring d’origine externe. En deuxième lieu, des études ont montré une contribution spécifique des régions fronto-striatales dans l’exécution d’un changement de règle. Toutefois, l’effet d’un changement de règle sur l’activité cérébrale n’a jamais été étudié sur les essais subséquents. À l’aide de l’IRMf, le cortex préfrontal ventrolatéral (CPFVL) et le noyau caudé ont montré une augmentation significative de leur activité lors des changements de règle continus et lors des changements de règles sporadiques par rapport à la condition contrôle, et aussi lors des essais où le maintien d’une même règle devait être effectué pour une courte durée par opposition au contrôle. Cependant, aucune activité fronto-striatale n’a été observée lorsqu’une même règle devait être appliquée pour une plus longue période. De plus, une diminution significative de l’activité du noyau caudé a été observée lors de la répétition de l’exécution d’une même règle suggérant une meilleure intégration de cette dernière. Finalement, plusieurs études ont montré une déactivation du RPD lors de l’exécution de tâches. À l’aide de l’IRMf, nous avons posé l’hypothèse que le RPD serait corrélé négativement avec les régions fronto-striatales lors de l’exécution d’une tâche de changement de règle. Nos résultats montrent une augmentation significative de l’activité des régions fronto-striatales lors d’une augmentation du nombre d’essais de changement de règle consécutif, pendant que le RPD montre une déactivation continue. De façon intéressante, pendant que les régions fronto-striatales montrent une diminution de leur activité lors de l’exécution d’une même règle pour une longue période, le RPD augmente son activité de façon significative. On conclut donc que le noyau caudé joue un rôle important dans la planification d’une nouvelle action lorsque plusieurs possibilités doivent être considérées en mémoire de travail, et ce en même temps. Finalement, le RPD montre une corrélation négative avec les régions fronto-striatales suggérant sa participation dans l’intégration d’une tâche devenant de plus en plus familière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La question des coûts des soins de santé gagne en intérêt dans le contexte du vieillissement de la population. On sait que les personnes en moins bonne santé, bien que vivant moins longtemps, sont associées à des coûts plus élevés. On s'intéresse aux facteurs associés à des coûts publics des soins de santé plus élevés au niveau individuel, chez les Québécois vivant en ménage privé âgés de 65 ans et plus, présentant au moins un type d’incapacité. À l’aide de modèles de régression, la variation des coûts pour la consultation de professionnels de la santé et la prise de médicaments a été analysée en fonction du nombre d’incapacités ainsi que de la nature de celles-ci. Les informations sur l’état de santé et la situation socio-démographique proviennent de l’Enquête sur les limitations d’activités (EQLA) de 1998, celles sur les coûts du Fichier d’inscription des personnes assurées (FIPA) de la Régie de l’Assurance maladie du Québec (RAMQ), pour la même année. Les résultats montrent que les deux types de coûts considérés augmentent en fonction du nombre d’incapacités. D’autre part, des coûts plus élevés ont été trouvés chez les personnes présentant une incapacité liée à l’agilité concernant la consultation de professionnels de la santé, alors que, concernant la prise de médicaments, le même constat s’applique aux personnes avec une incapacité liée à la mobilité. Les deux types de coûts considérés présentent un niveau plus élevé chez les personnes présentant une incapacité liée au psychisme, en particulier lorsque l’on considère la prise de médicaments. Ces observations soulignent l’intérêt de considérer la nature du problème de santé lorsque l’on étudie les déterminants individuels du niveau des coûts des soins de santé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les avancées technologiques liées à l’internet ont permis une démocratisation des outils de communication et une transformation des relations interpersonnelles. L’impact de ces changements s’est ressenti autant dans la sphère légitime que dans les marchés criminels. Ces derniers ont migré, au cours des dernières années, vers des plateformes en ligne qui leur permettent de mieux gérer les risques associés avec leurs activités illégales. Cette thèse s’intéresse à l’impact de l’internet sur la criminalité et sur l’adaptation des criminels à cet environnement virtuel. Ces derniers forment maintenant des communautés en ligne et gardent le contact entre eux à l’aide de salles de clavardage et de forums de discussions. Nous nous intéresserons dans cette thèse à trois formes particulières de crime soit la fraude de propriété intellectuelle (la scène des warez), le piratage d’ordinateurs (les botnets) ainsi que la fraude de données personnelles et financières (le carding). Chacune de ces formes de crime sera analysée à l’aide d’un article publié ou présentement en évaluation. L’article sur la scène des warez décrit l'organisation sociale ainsi que la distribution de la reconnaissance dans la communauté des pirates informatiques. Les systèmes de délinquance (Sutherland, 1947) et l’individualisme réseauté (Boase & Wellman, 2006) sont utilisés pour théoriser l'organisation sociale et la distribution de la reconnaissance dans la scène warez. L’article sur les botnets tente de comprendre la distribution de la réputation dans une communauté de criminels. En utilisant les données d’un forum de discussion où des botmasters louent et achètent des biens et services illégaux, cette recherche modélise les facteurs qui permettent d’augmenter le niveau de réputation de certains acteurs. Finalement l’article sur le carding mesure le lien entre la réputation telle que développée par Glückler & Armbrüster (2003) et la performance criminelle. Notre thèse démontre que l’internet a eu un effet transformateur sur la criminalité à six niveaux : 1) l’augmentation de la facilité à trouver des co-criminels; 2) l’augmentation de la compétition entre les criminels; 3) l’augmentation du nombre de victimes; 4) la diminution des risques d’arrestation; 5) l’augmentation du taux de réussite des criminels et; 6) les changements dans l’équilibre entre criminels, victimes et protecteurs. Elle nous permet également de démontrer l’importance de la réputation, le capital virtuel, dans les marchés criminels en ligne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré deduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les acides biliaires sont reconnus comme des tensioactifs d’origine biologique potentiellement applicables dans le domaine pharmaceutique. Leurs structures en font une plateforme idéale pour l’obtention de nouvelles architectures polymères. Des composés synthétisés par polymérisation anionique de dérivés d’oxirane comme l’oxyde d’éthylène, offre des dérivés amphiphiles pegylés démontrant des propriétés d’agrégation intéressantes en vue d’une amélioration de la biocompatibilité et de la capacité d’encapsulation médicamenteuse. Une large gamme d’acides biliaires pegylés (BA(EGn)x) a été préparée avec comme objectif premier leurs applications dans la formulation de principes actifs problématiques. Pour cela, une caractérisation rigoureuse du comportement de ces dérivés (modulation de la longueur (2 < n < 19) et du nombre de bras (2 < x < 4) de PEG) en solution a été réalisée. Dans le but d’améliorer la biodisponibilité de principes actifs lipophiles (cas de l’itraconazole), des nanoémulsions spontanées, composées de BA(EGn)x et d’acide oléique, ont été développées. L’évaluation in vitro, de la toxicité (cellulaire), et de la capacité de solubilisation des systèmes BA(EGn)x, ainsi que les paramètres pharmacocinétiques in vivo (chez le rat), suggèrent une livraison contrôlée par nos systèmes auto-assemblés lors de l’administration orale et intraveineuse. Aussi, la synthèse de copolymères en blocs en étoile à base d’acide cholique pegylés a été effectuée par polymérisation anionique par addition d’un second bloc au caractère hydrophobe de poly(éther d’allyle et de glycidyle) (CA(EGn-b-AGEm)4). Selon le ratio de blocs hydrophiles-hydrophobes CA(EGn-b-AGEm)4, des réponses thermiques en solution (LCST) ont été observées par un point de trouble (Cp) entre 8 oC et 37 oC. Un mécanisme de formation d’agrégats en plusieurs étapes est suggéré. La thiolation des allyles des PAGE permet une fonctionnalisation terminale à haute densité, comparable aux dendrimères. Les caractérisations physico-chimiques des CA(EGn-b-AGEm-NH2)4 et CA(EGn-b-AGEm-COOH)4 indiquent la formation de structures auto-assemblées en solution, sensibles à la température ou au pH. Cette fonctionnalisation élargie le domaine d’application des dérivés d’acides biliaires pegylés en étoile vers la transfection d’ADN, la livraison de siRNA thérapeutiques ou encore à une sélectivité de livraison médicamenteux (ex. sensibilité au pH, greffage ligands).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La leucémie myéloïde aigue (LMA), cancer du sang causé par une prolifération excessive des précurseurs myéloïdes à un stade précoce de maturation, est associée à une survie variant entre 20 et 30% à cinq ans en dépit des traitements de chimiothérapie les plus intensifs. L’antigène CD33 est exprimé chez les cellules malignes dans 90% des LMA ce qui en fait une cible de choix pour le développement d’immunoconjugué (IC). Trois IC composés d’un anticorps monoclonal anti-CD33 couplé à la maytansine, une toxine s’attaquant aux fuseaux mitotiques, ont été créés. Nous avons étudié l’effet de ces IC sur des cellules primaires et des lignées cellulaires LMA et étudier les mécanismes pouvant expliquer différents niveaux de sensibilité. Les études effectuées ont permis de déterminer que le niveau d’expression du CD33 n’explique pas la variation de sensibilité face aux IC. Il a été démontré que les IC anti-CD33 sont internalisés rapidement par la cellule et que le conjugué est retrouvé au niveau de l’endosome en premier lieu. Il a été confirmé que le lysosome est essentiel à l’effet anti-mitotique induit par le conjugué. Aussi, il est proposé que la protéine SOCS3 pourrait jouer un rôle dans la résistance aux IC anti-CD33 en dirigeant le complexe IC-CD33-SOCS3 vers le protéasome et ainsi empêcher la libération du composé toxique par le lysosome. Nous avons aussi conclu que les variations d’agent de liaison et l’augmentation du nombre de molécules toxiques entre les 3 IC n’ont pas été suffisantes pour augmenter leur efficacité à éliminer les cellules LMA. L’évaluation de ces IC ainsi que l’identification des mécanismes de résistance permettra de cibler les patients les plus susceptibles de bénéficier de ce type de traitement et potentiellement d’identifier de nouvelles voies pour améliorer l’efficacité des traitements.