45 resultados para ADD
Resumo:
David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.
Resumo:
Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
Cette étude a pour but de vérifier l’association entre l’insécurité alimentaire et les apports nutritionnels des Premières Nations vivant sur les réserves de la Colombie-Britannique, ainsi que la présence d’interactions de la nourriture traditionnelle dans la relation entre l’insécurité alimentaire et les apports nutritionnels. Un rappel de 24h et le questionnaire sur l’insécurité alimentaire du HFSSM adapté par Santé Canada provenant de la First Nations Food, Nutrition and Environment Study (FNFNES) ont servi pour les analyses statistiques chez 493 femmes et 356 hommes dans 21 communautés de Premières Nations de la Colombie-Britannique. Aucune association entre l’insécurité alimentaire et les apports nutritionnels totaux n’a été observée dans notre échantillon. Par contre, la nourriture traditionnelle interagissait dans la relation entre l’insécurité alimentaire et les apports nutritionnels pour plusieurs nutriments chez les hommes et chez les femmes. Chez les femmes, la qualité nutritionnelle pourrait jouer un rôle important dans la relation entre l’insécurité alimentaire et les apports nutritionnels. Chez les hommes, des différences dans les comportements alimentaires pourraient être associées au manque de nourriture traditionnelle chez ceux ayant manifesté une insécurité alimentaire grave. Enfin, les interactions de la nourriture traditionnelle dans la relation entre l’insécurité alimentaire et les apports nutritionnels laissent croire que les hommes et les femmes souffrant peu ou pas d’insécurité alimentaire ajoutent ce type d’alimentation à leurs apports quotidiens. À l’inverse, ceux et celles qui souffrent d’insécurité alimentaire grave utiliseraient la nourriture traditionnelle pour remplacer la nourriture commerciale.
Resumo:
Comme les études sur la couverture médiatique ont démontré qu’elle influence pratiquement toute personne qu’elle touche, des consommateurs aux jurés aux témoins, les deux études de cette thèse doctorale ont respectivement examiné l’opinion du public sur l’imposition de restrictions sur les médias dans les palais des justices et l’impact de la couverture médiatique sur la santé mentale des victimes de crime. Le gouvernement québécois a récemment introduit des restrictions sur les médias dans les palais de justice afin de minimiser l’influence des journalistes et des caméramans. Bien que l’affaire a atteint la Cour suprême du Canada, une étude préliminaire a trouvé que le public est largement favorable à ces restrictions (Sabourin, 2006). La première partie de cette thèse doctorale cherchait à approfondir ce sujet avec un échantillon plus représentatif de la population. Deux cent quarante-trois participants comprenant six groupes expérimentaux ont rempli des questionnaires mesurant leur opinion de ces restrictions. Les participants ont été divisé en deux conditions expérimentales où ils ont visionné soit des clips audiovisuels démontrant une atmosphère de débordement dans des palais de justice ou des clips plutôt calmes. Un troisième groupe n’a visionné aucun clip audiovisuel. De plus, il y avait deux versions du questionnaire ayant 20 items où les questions ont été présenté en sens inverse. L’étude a trouvé qu’une grande majorité des participants, soit presque 79 pourcent, ont supporté la restriction des médias dans les palais de justice. Il est intéressant de noter qu’un des groupes n’a pas supporté les restrictions – le groupe contrôle qui a lu les énoncés supportant l’absence des restrictions en premier. La deuxième composante de cette thèse doctorale a examiné l’impact des médias sur les victimes de crime. De nombreuses études expérimentales ont démontré que les victimes de crime sont particulièrement susceptibles à des problèmes de santé mentale. En effet, elles ont trois fois plus de chances de développer un trouble de stress post-traumatique (TSPT) que la population générale. Une étude a confirmé cette conclusion et a trouvé que les victimes de crimes qui avaient une impression plutôt négative de leur couverture médiatique avaient les taux les plus élévés de TSPT (Maercker & Mehr, 2006). Dans l’étude actuelle, vingt-trois victimes de crimes ont été interviewé en utilisant une technique narrative et ont complété deux questionnaires mésurant leur symptômes du TSPT et d’anxiété, respectivement. Une grande proportion des participantes avaient des symptômes de santé mentale et des scores élévés sur une échelle évaluant les symptômes du TSPT. La majorité des narratives des participants étaient négatives. Les thèmes les plus communs incluent dans ces narratives étaient l’autoculpabilisation et une méfiance des autres. La couverture médiatique ne semblaient pas être liée à des symptômes de santé mentale, quoique des facteurs individuels pourraient expliquer pourquoi certains participants ont été favorables envers leur couverture médiatique et d’autres ne l’été pas. Les résultats de ces deux études suggèrent que le public approuve la restriction des médias dans les palais de justice et que des facteurs individuels pourraient expliqués comment la couverture médiatique affecte les victimes de crime. Ces résultats ajoutent à la littérature qui questionne les pratiques actuelles qu’utilisent les médias.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
Nous présentons les résultats de trois campagnes d'observation d'un mois chacune dans le cadre de l'étude de la collision des vents dans les systèmes binaires Wolf-Rayet + OB. Ce travail se concentre sur l'étude des objets de l'hémisphère sud n'ayant jamais encore fait l'objet d'études poussées dans ce contexte. À cela, nous avons ajouté l'objet archétype pour ce type de systèmes : WR 140 (WC7pd + O5.5fc) qui a effectué son dernier passage périastre en janvier 2009. Les deux premières campagnes (spectroscopiques), ont permis une mise à jour des éléments orbitaux ainsi qu'une estimation de la géométrie de la zone de collision des vents et d'autres paramètres fondamentaux des étoiles pour 6 systèmes binaires : WR 12 (WN8h), 21 (WN5o+O7V), 30 (WC6+O7.5V), 31 (WN4o+O8), 47 (WN6o+O5) et 140. Une période non-orbitale courte (probablement reliée à la rotation) a également été mesurée pour un des objets : WR 69 (WC9d+OB), avec une période orbitale bien plus grande. La troisième campagne (photométrique) a révélé une variabilité étonnamment faible dans un échantillon de 20 étoiles WC8/9. Cela supporte l'idée que les pulsations ne sont pas courantes dans ce type d'étoiles et qu'il est peu probable que celles-ci soient le mécanisme dominant de formation de poussière, suggérant, par défaut, le rôle prédominant de la collision des vents.
Resumo:
L’objectif de la présente thèse était de caractériser le sommeil d’un groupe clinique d’enfants et d’adolescents ayant un trouble d’anxiété comme diagnostic primaire et le comparer à un groupe témoin. Dans un premier temps, nous avons vérifié si le profil de la fréquence cardiaque nocturne des enfants et des adolescents pouvait être regroupé selon le diagnostic. Pour ce faire, la fréquence cardiaque nocturne de 67 adolescents anxieux et 19 sujets non anxieux a été enregistrée à l’aide d’un équipement ambulatoire. Les résultats de cette étude montrent que le profil de la fréquence cardiaque nocturne chez les enfants anxieux varie selon le diagnostic. Alors que les adolescents non anxieux montrent un profil de la fréquence cardiaque nocturne plat, on retrouve les associations suivantes chez les adolescents ayant un trouble anxieux : a) un profil croissant de la fréquence cardiaque chez les adolescents ayant un trouble d’anxiété de séparation; b) un profil décroissant de la fréquence cardiaque chez les adolescents ayant un trouble d’anxiété généralisé; c) un profil en forme de U chez les adolescents ayant un trouble d’anxiété sociale. De plus, une association significative a été observée entre le diagnostic et la présence de fatigue matinale. L’association d’un profil de la fréquence cardiaque nocturne avec un diagnostic d’anxiété suggère la présence d’une dysrégulation de la modulation chronobiologique du système nerveux autonome. Étant donné que le profil de la fréquence cardiaque nocturne s’exprime différemment selon le diagnostic, qu’en est-il de l’architecture du sommeil? Dans un deuxième temps, nous avons enregistré le sommeil en laboratoire d’un groupe clinique de 19 jeunes ayant un trouble d’anxiété comme diagnostic primaire, avec comorbidités et médication et comparé à 19 jeunes non anxieux. Les résultats de cette étude ont montré que les participants du groupe anxieux ont une latence au sommeil plus longue, une latence au sommeil paradoxal plus longue et une durée d’éveil plus longue lorsque comparé au groupe témoin. L’évaluation subjective de la qualité du sommeil chez le groupe d’adolescents anxieux montre que leur auto-évaluation reflète les valeurs enregistrées en laboratoire. Nous avons également observé chez le groupe anxieux une fréquence cardiaque moyenne plus élevée et un index plus élevé d’apnée-hypopnée, bien que non pathologique. Nous avons également observé une association positive entre l’anxiété de trait et l’indice d’apnée-hypopnée et la latence au sommeil, ainsi qu’une association positive entre l’anxiété manifeste et la latence au sommeil paradoxal. Ces résultats suggèrent que le sommeil chez cette population est altéré, que des signes d’hypervigilance physiologique sont présents et qu'une association existe entre ces deux paramètres. Finalement, dans la troisième étude de cette thèse, nous avons analysé l’activité cardiaque pendant le sommeil en utilisant les paramètres temporels et fréquentiels de la variabilité cardiaque chez un groupe clinique de dix-sept enfants et adolescents ayant un trouble d’anxiété comme diagnostic primaire avec comorbidité et médication, et comparé à un groupe non anxieux. Les résultats ont montré que les participants du groupe anxieux, lorsque comparés au groupe non anxieux, présentent des intervalles interbattements plus courts, un indice temporel de la variabilité cardiaque représentant la branche parasympathique moindre, une activité des hautes fréquences normalisées moindre et un ratio basse fréquence sur haute fréquence augmenté. Plusieurs corrélations ont été observées entre les mesures cliniques de l’anxiété et les mesures de la variabilité cardiaque. Ces résultats viennent ajouter à la littérature actuelle un volet descriptif clinique à ce jour non documenté, soit l’impact de l’anxiété pathologique chez un groupe clinique d’enfants et d’adolescents sur le processus normal du sommeil et sur la régulation de la fréquence cardiaque. En résumé, les résultats de ces trois études ont permis de documenter chez un groupe clinique d’enfants et d’adolescents ayant de l’anxiété pathologique, la présence d’une altération circadienne du profil de la fréquence cardiaque, d’une architecture altérée du sommeil ainsi qu’une dysrégulation du système nerveux contrôlant l’activité cardiaque.
A comparative study of the resilience of coal logistics chains in Australia, South Africa and Canada
Resumo:
Au cours des dernières années l'industrie du charbon a connu un essor important. L'importance du charbon dans l'économie mondiale provient d'une demande mondiale soutenue et de niveaux de production en hausse constante. De ce fait, le nombre élevé d'importateurs et d'exportateurs est à l'origine d'un système d'échange complexe où la compétition est féroce. En effet, un nombre grandissant de pays importateurs se partagent les sources d'approvisionnement tandis qu'un nombre limité de pays exportateurs s'efforcent de répondre à la demande tout en essayant de s'accaparer le plus de parts du marché mondial. L'objectif de cette recherche s'inscrit dans ce contexte en démontrant les bénéfices associés aux chaînes logistiques résilientes pour tout acteur de l'industrie soucieux de devancer la compétition. Une analyse de la logistique de l'industrie du charbon permet entre autres de se pencher sur les questions suivantes: Comment les infrastructures influencent-elles la résilience d'une chaîne logistique? Quels risques est-ce que les catastrophes naturelles présentent pour une chaîne logistique? Comment la gouvernance influence-t-elle la résilience d'une chaîne logistique? Une chaîne logistique représente le trajet effectué par un bien ou produit au cours de son cycle de vie, du point d'origine au point de consommation. Ceci étant dit, le meilleur moyen de régler les problèmes inhérents aux chaînes logistiques est de maintenir de hauts niveaux de résilience. Cette recherche évaluera donc la résilience de chaînes logistiques du charbon des industries australienne, sud-africaine et canadienne. Pour ce faire, trois variables seront étudiées: les infrastructures, les catastrophes naturelles et la gouvernance. La comparaison des trois cas à l'étude se fera par un nombre défini d'indicateurs (12 au total) pour chacune des variables étudiées. Les résultats de cette recherche démontrent que la résilience des trois cas à l'étude se ressemble. Cependant, certaines chaînes logistiques détiennent des avantages comparatifs qui améliorent grandement leur résilience et leur compétitivité. Plusieurs sujets de recherche pourraient être utilisés pour compléter cette recherche. L'analyse comparative pourrait être appliquée à d'autres chaînes logistiques pour vérifier la viabilité des résultats. Une analyse semblable pourrait également être entreprise pour le secteur en aval de la chaîne logistique. Finalement, une méthodologie basée sur des interviews pourrait ajouter un regard différent sur les questions abordées.
Resumo:
Nous avons mené une étude empirique pour tester les conclusions théoriques d'un article de Foellmi et Oeschlin (2010), selon lesquelles la libéralisation commerciale accroît les inégalités de revenu dans les pays dont les marchés financiers sont affectés par des frictions. On réalise une régression sur des indices synthétiques de la distribution des revenus, de type Gini, de l’ouverture commerciale, en interaction avec un indicateur de disponibilité du crédit. On dispose d’un panel de pays en développement et de pays émergents, comprenant des données annuelles. Il apparaît que les signes de nos variables d’intérêts sont toujours cohérents avec l’analyse de Foellmi et Oeschlin, même après intégration de divers groupes de variables de contrôle et également lorsque les régressions sont effectuées sur des données agrégées par 5 ans. Néanmoins, les paramètres perdent en significativité pour certains groupes de variables de contrôle, certainement du fait de la faible qualité des données et de la taille relativement modeste de l’échantillon.
Resumo:
Individual well-being is multidimensional and various aspects of the quality of life need to be jointly considered in its measurement. The axiomatic literature on the subject has proposed many indices of multidimensional poverty and deprivation and explored the properties that are at the basis of these measures. The purpose of this chapter is to add intertemporal considerations to the analysis of material deprivation. We employ the EU-SILC panel data set, which includes information on different aspects of well-being over time. EU countries are compared based on measures that take this additional intertemporal information into consideration. Journal of Economic Literature Classi cation No.: D63.
Resumo:
In college admissions and student placements at public schools, the admission decision can be thought of as assigning indivisible objects with capacity constraints to a set of students such that each student receives at most one object and monetary compensations are not allowed. In these important market design problems, the agent-proposing deferred-acceptance (DA-)mechanism with responsive strict priorities performs well and economists have successfully implemented DA-mechanisms or slight variants thereof. We show that almost all real-life mechanisms used in such environments - including the large classes of priority mechanisms and linear programming mechanisms - satisfy a set of simple and intuitive properties. Once we add strategy-proofness to these properties, DA-mechanisms are the only ones surviving. In market design problems that are based on weak priorities (like school choice), generally multiple tie-breaking (MTB)procedures are used and then a mechanism is implemented with the obtained strict priorities. By adding stability with respect to the weak priorities, we establish the first normative foundation for MTB-DA-mechanisms that are used in NYC.
Resumo:
Les cellules endothéliales progénitrices («Endothelial Progenitor Cells», EPCs) sont des précurseurs endothéliaux qui possèdent un potentiel considérable dans la réparation et la régénération vasculaire. Dans le contexte des maladies cardiovasculaires, la compréhension du rôle des EPCs dans la régulation de la thrombogenèse et la réparation endothéliale est pertinente et nécessaire pour comprendre leur potentiel thérapeutique. Nous avons rapporté que les EPCs interagissent avec les plaquettes via la P-sélectine et inhibent l’adhésion, l’activation et l’agrégation des plaquettes ainsi que la formation de thrombus. Plus récemment, nous avons démontré que les EPCs expriment le récepteur inflammatoire CD40 et il est bien connu que les plaquettes constituent la source principale de la forme soluble de son agoniste le CD40L («soluble CD40 Ligand», sCD40L). Ainsi, nous avons émis l’hypothèse principale que l’axe CD40L/CD40 dans les EPCs influence leurs fonctions anti-thrombotique et pro-angiogénique. Pour vérifier cette hypothèse, nous avons réussi à générer des «early» et «late» EPCs à partir de cellules mononucléaires du sang périphérique («Peripheral Blood Mononuclear Cells», PBMCs) en culture. Nous avons mis en évidence l’existence de l’axe CD40L/CD40 dans ces EPCs en démontrant l’expression des protéines adaptatrices, nommées les facteurs associés au récepteur du facteur de nécrose tumorale («TNF Receptor Associated Factors», TRAFs). Dans une première étude, nous avons investigué l’effet du sCD40L sur la fonction des «early» EPCs dans l’agrégation plaquettaire. En effet, nous avons démontré que le sCD40L renverse leur effet inhibiteur sur l’agrégation plaquettaire, et ce sans avoir un effet significatif sur la sécrétion de prostacycline (PGI2) et d’oxyde nitrique («Nitric Oxide», NO) par ces cellules. De plus, aucun effet du sCD40L n’a été noté sur l’apoptose et la viabilité de ces cellules. Par contre, nous avons noté une augmentation importante du stress oxydatif dans les «early» EPCs suite à leur stimulation avec le sCD40L. L’inhibition du stress oxydatif renverse l’effet du sCD40L sur les «early» EPCs dans l’agrégation plaquettaire. Ces résultats pourraient expliquer, en partie, la fonction réduite des EPCs chez les individus présentant des niveaux élevés de sCD40L en circulation. Dans une deuxième étude, nous avons étudié l’effet de sCD40L dans la fonction des «early» EPCs en relation avec l’angiogenèse. Nous avons identifié, dans un premier temps,les métalloprotéinases de la matrice («Matrix Metalloproteinases», MMPs) qui sont sécrétées par ces cellules. Nous avons trouvé que les «early» EPCs relâchent principalement la MMP-9 et que cette relâche est augmentée par le sCD40L. Le sCD40L induit aussi la phosphorylation de la p38 MAPK qui contribue à augmenter la sécrétion de MMP-9. Des études fonctionnelles ont démontré que le prétraitement des «early» EPCs au sCD40L potentialise la réparation endothéliale des HUVECs. En conclusion, l’ensemble de nos travaux, dans le cadre de ce projet de doctorat, nous a permis d’élucider les mécanismes responsables de l’action du sCD40L sur les effets inhibiteur et angiogénique des «early» EPCs dans l’agrégation plaquettaire et l’angiogenèse, respectivement. Ces résultats ajoutent de nouvelles connaissances sur le rôle des EPCs et pourront constituer la base pour des études futures permettant de corréler les niveaux élevés du sCD40L circulant et l’incidence des maladies cardiovasculaires, particulièrement l’athérothrombose.
Resumo:
"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."
Resumo:
Quoique très difficile à résoudre, le problème de satisfiabilité Booléenne (SAT) est fréquemment utilisé lors de la modélisation d’applications industrielles. À cet effet, les deux dernières décennies ont vu une progression fulgurante des outils conçus pour trouver des solutions à ce problème NP-complet. Deux grandes avenues générales ont été explorées afin de produire ces outils, notamment l’approche logicielle et matérielle. Afin de raffiner et améliorer ces solveurs, de nombreuses techniques et heuristiques ont été proposées par la communauté de recherche. Le but final de ces outils a été de résoudre des problèmes de taille industrielle, ce qui a été plus ou moins accompli par les solveurs de nature logicielle. Initialement, le but de l’utilisation du matériel reconfigurable a été de produire des solveurs pouvant trouver des solutions plus rapidement que leurs homologues logiciels. Cependant, le niveau de sophistication de ces derniers a augmenté de telle manière qu’ils restent le meilleur choix pour résoudre SAT. Toutefois, les solveurs modernes logiciels n’arrivent toujours pas a trouver des solutions de manière efficace à certaines instances SAT. Le but principal de ce mémoire est d’explorer la résolution du problème SAT dans le contexte du matériel reconfigurable en vue de caractériser les ingrédients nécessaires d’un solveur SAT efficace qui puise sa puissance de calcul dans le parallélisme conféré par une plateforme FPGA. Le prototype parallèle implémenté dans ce travail est capable de se mesurer, en termes de vitesse d’exécution à d’autres solveurs (matériels et logiciels), et ce sans utiliser aucune heuristique. Nous montrons donc que notre approche matérielle présente une option prometteuse vers la résolution d’instances industrielles larges qui sont difficilement abordées par une approche logicielle.