313 resultados para Limites de la viabilité
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Cette thèse vise à définir une nouvelle méthode d’enseignement pour les systèmes tutoriels intelligents dans le but d’améliorer l’acquisition des connaissances. L’apprentissage est un phénomène complexe faisant intervenir des mécanismes émotionnels et cognitifs de nature consciente et inconsciente. Nous nous intéressons à mieux comprendre les mécanismes inconscients du raisonnement lors de l’acquisition des connaissances. L’importance de ces processus inconscients pour le raisonnement est bien documentée en neurosciences, mais demeure encore largement inexplorée dans notre domaine de recherche. Dans cette thèse, nous proposons la mise en place d’une nouvelle approche pédagogique dans le domaine de l’éducation implémentant une taxonomie neuroscientifique de la perception humaine. Nous montrons que cette nouvelle approche agit sur le raisonnement et, à tour de rôle, améliore l’apprentissage général et l’induction de la connaissance dans un environnement de résolution de problème. Dans une première partie, nous présentons l’implémentation de notre nouvelle méthode dans un système tutoriel visant à améliorer le raisonnement pour un meilleur apprentissage. De plus, compte tenu de l’importance des mécanismes émotionnels dans l’apprentissage, nous avons également procédé dans cette partie à la mesure des émotions par des capteurs physiologiques. L’efficacité de notre méthode pour l’apprentissage et son impact positif observé sur les émotions a été validée sur trente et un participants. Dans une seconde partie, nous allons plus loin dans notre recherche en adaptant notre méthode visant à améliorer le raisonnement pour une meilleure induction de la connaissance. L’induction est un type de raisonnement qui permet de construire des règles générales à partir d’exemples spécifiques ou de faits particuliers. Afin de mieux comprendre l’impact de notre méthode sur les processus cognitifs impliqués dans ce type de raisonnement, nous avons eu recours à des capteurs cérébraux pour mesurer l’activité du cerveau des utilisateurs. La validation de notre approche réalisée sur quarante-trois volontaires montre l’efficacité de notre méthode pour l’induction de la connaissance et la viabilité de mesurer le raisonnement par des mesures cérébrales suite à l’application appropriée d’algorithmes de traitement de signal. Suite à ces deux parties, nous clorons la thèse par une discussion applicative en décrivant la mise en place d’un nouveau système tutoriel intelligent intégrant les résultats de nos travaux.
Resumo:
La complexification de nos sociétés et les limites des instruments législatifs (rigidité, opacité, etc.) minent l’efficacité du droit. Il y a un besoin criant de renouveau entre ce que l’auteur appelle la société civile et les pouvoirs de décision C’est pourquoi sont apparues au fil des années des formes alternatives d’organisations collectives, ouvertes et autorégulées. On parle alors de gouvernance. L’auteur explique cette évolution de la relation droit/gouvernance non seulement par les limites de la législation à proprement parler mais également par le développement de nouvelles techniques et technologies comme Internet qui ouvrent la porte à de nouvelles possibilités de coordination plus efficaces ainsi qu’à la protection d’intérêts divers au même titre que la loi. Internet devient alors un nouvel observatoire d’où l’on peut développer de nouvelles méthodes de gouvernance, le tout dans une optique de consensus sur la norme. En effet, il ne s’agit pas ici d’écarter le droit au profit de nouvelles formes de gouvernance ou vice-versa. On cherche à créer un système complémentaire qui viendra pallier aux faiblesses d’une législation rigide et complexe par moment et qui produira tout de même une dynamique juridique au niveau national et international.
Resumo:
L’actualité entourant les Jeux olympiques de Vancouver de 2010 a fait couler beaucoup d’encre. Les retombées économiques enviables que procure l’exclusivité de la commandite aux Jeux olympiques suscitent la convoitise chez de nombreux concurrents commerciaux. Face aux phénomènes grandissant de la contrefaçon de la marque olympique et du marketing insidieux, le Comité international olympique et les pays hôtes des Jeux ont apporté une couche supplémentaire de protection pour la marque olympique. Au Canada, la Loi sur les marques olympiques et paralympiques (LMOP) fut sanctionnée le 22 juin 2007 par la Gouverneure Générale. Les sections-clés de cette loi sont arrivées à échéance le 31 décembre 2010 alors que d’autres de ses aspects sont permanents. La première partie de cet article a pour but de présenter les enjeux reliés à la protection de la propriété intellectuelle lors des Jeux de Vancouver, de définir et déterminer les limites de la propriété olympique, ainsi que le rôle de chaque acteur dans le domaine olympique. Nous étudierons les actions qui furent prises par le Comité d’organisation des Jeux olympiques et paralympiques d’hiver de 2010 à Vancouver (COVAN) et par les autres paliers de comités olympiques pour s’assurer la propriété de l’image olympique au Canada et l’importance de la LMOP dans leurs actions. Dans la deuxième partie de l’article, il sera question de la mise en œuvre de la protection de la marque olympique. Au cours des Jeux, le COVAN a dû faire face à l’adoption ou l’utilisation de la marque olympique par des tiers non autorisés et à des associations commerciales non autorisées avec l’image olympique. D’autres infractions ont également pris place sur Internet. Le présent article se veut un bilan de la situation canadienne suite aux Jeux olympiques de Vancouver de 2010. La LMOP a-t-elle été invoquée devant les tribunaux canadiens ? La loi a-t-elle effectivement été le seul rempart entre la protection olympique et les entreprises ou individus qui souhaitaient profiter indûment de l’événement ? Et finalement, cette initiative a-t-elle été déterminante dans le combat contre le marketing insidieux et autres attaques contre l’image olympique?
Resumo:
Introduction : La scaphocéphalie est la craniosynostose monosuturaire la plus commune (1/2000). Celle-ci est causée par la fusion prématurée de la suture sagittale. Une chirurgie corrective de la voûte crânienne peut être effectuée dans la première année de vie de l’enfant. Il n’existe actuellement aucune donnée précise dans la littérature scientifique étudiant l’occlusion chez les patients scaphocéphales, ainsi que les impacts potentiels de la chirurgie de la voûte crânienne sur celle-ci. Objectifs : L’objectif primaire de cette étude est de décrire et comparer la malocclusion dento-squelettique d’un groupe de patients scaphocéphales à une population pédiatrique normale. L’objectif secondaire est d’évaluer la différence au niveau de l’occlusion entre un sous-groupe de patients scaphocéphales ayant eu une chirurgie corrective de la voûte crânienne et un sous-groupe ne l’ayant pas eu. Méthodologie : Quatre-vingt-onze patients scaphocéphales (2-11 ans; 71 garçons) de la banque de données de la Clinique de Craniofacial du CHU Ste-Justine ont formé le groupe expérimental. Tous les patients ont eu un examen orthodontique complet et ont été suivis. Parmi ceux-ci, quarante-quatre avaient eu une chirurgie corrective de la voûte crânienne et quarante-sept n’en avaient pas eu, mais étaient suivis régulièrement à la clinique. Trente-huit (33 garçons; 17 opérés) de ces patients ont eu des radiographies céphalométriques latérales et parmi ceux-ci, un certain nombre ont reçus des suivis de croissance radiologiques. Résultats : Les valeurs cliniques de la classification dentaire, ainsi que la mesure du surplomb horizontal, ont indiqué une augmentation de la prévalence de malocclusions de classe II chez les enfants scaphocéphales. Par contre, les valeurs céphalométriques indicatrices de malocclusion squelettique de classe II (ex. : N-A perp HP, N-B perp HP, N-Pog perp HP, Wits, N-A-Pog) sont demeurées dans les limites de la normale. Certaines valeurs céphalométriques présentent une différence statistiquement significative entre les patients opérés et non opérés (ANS-PNS t2, p=0.025; /1-FH t2, p=0.028), mais ces variations individuelles ne sont pas reliées à la scaphocéphalie. Conclusion : Les enfants scaphocéphales présentent cliniquement davantage de malocclusions de classe II que les enfants normaux. Par contre, les valeurs radiologiques antéro-postérieures et transverses demeurent dans les limites de la normale. La chirurgie corrective de la voûte crânienne n’affecte également pas l’occlusion chez ces patients.
Resumo:
Dans ce mémoire, nous nous proposons de montrer que le concept kantien de chose en soi est à la fois un concept métaphysique et un concept critique. En ce sens, la chose en soi doit être comprise comme un objet transcendantal réel qui existe à titre de cause des phénomènes. Si, contrairement à ce que soutenaient F.H. Jacobi (1787) et G.E. Schulze (1791), cela ne suppose pas de sortir du criticisme, c'est qu'une telle affirmation prend la forme d'une connaissance analogique qui respecte les limites de la connaissance humaine. De fait, la connaissance analogique permet de pointer en direction de quelque chose dont la nature (Beschaffenheit) peut demeurer problématique, tout en permettant d'affirmer son existence (Dasein). Nous serons dès lors conduite à montrer que la Critique de la raison pure fournit bel et bien les outils nécessaires permettant de rendre compte de l’existence des choses en soi à titre de causes des phénomènes.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
Le contrôle postural et la perception des limites de la stabilité sont des processus complexes qui nécessitent le traitement et l’intégration d’informations sensorielles multimodales. Pendant l’enfance, le développement de la stabilité posturale s’effectue de façon non-monotonique. Plusieurs auteurs ont suggéré que ce profil non linéaire serait provoqué par une période de recalibration des systèmes sensoriels. Cette phase, nommée période de transition, est observée vers l’âge de 6-7 ans. Nous disposons toutefois de très peu d’information sur le rôle spécifique des afférences et des mécanismes d’intégration sensorielle au cours du développement postural. Les dysfonctions dans les noyaux gris centraux, telles que ceux observés dans la maladie de Parkinson, ont été associées à divers déficits dans le contrôle de la posture, dans le traitement et l’intégration sensoriel plus particulièrement, au niveau des informations proprioceptives. De plus, les limites fonctionnelles de la stabilité posturale des personnes atteintes de la maladie de Parkinson sont significativement réduites. Cependant, les connaissances concernant comment certaines pathologies des noyaux gris centraux, telles que le syndrome Gilles de la Tourette (SGT) et la maladie de Huntington (MH) affectent la capacité d’utiliser les informations sensorielles pour contrôler la posture demeurent à ce jour, incomplètes. Cette thèse porte sur le rôle des noyaux gris centraux dans les processus de traitements et d’intégration sensorielle, particulièrement les afférences proprioceptives dans le contrôle de la posture au cours du développement de l’enfant en santé, atteint du SGT et chez l’adulte atteint de la MH avec et sans symptôme clinique. Notre protocole expérimental a été testé chez ces trois populations (enfants en santé, SGT et MH). Nous avons utilisé des mesures quantitatives à partir de données issues d’une plateforme de force afin d’évaluer les ajustements posturaux dans les limites de la stabilité posturale. Les participants devaient s’incliner le plus loin possible dans quatre différentes directions (avant, arrière, droite et gauche) et maintenir l’inclinaison posturale maximale pendant 10 secondes. Afin de tester la capacité à traiter et à intégrer les informations sensorielles, la tâche expérimentale a été exécutée dans trois conditions sensorielles : 1) yeux ouverts, 2) yeux fermés et 3) yeux fermés, debout sur une mousse. Ainsi, la contribution relative de la proprioception pour le contrôle postural augmente à travers les conditions sensorielles. Dans la première étude, nous avons évalué la capacité à traiter et à intégrer les informations sensorielles avant (4 ans) et après (8-10 ans) la période de transition comparativement aux adultes. Dans la deuxième et la troisième étude, nous avons également évalué le traitement et l’intégration des informations sensorielles chez les patients atteints de désordres des noyaux gris centraux. La deuxième étude portera spécifiquement sur les adolescents atteints du SGT et la troisième, sur la MH avant et après l’apparition des symptômes cliniques. En somme, les résultats de la première étude ont démontré que la performance des enfants est affectée de façon similaire par les différentes conditions sensorielles avant et après la période de transition. Toutefois, le profil de développement des mécanismes responsables des ajustements posturaux de l’axe antéropostérieur est plus précoce comparativement à ceux de l’axe médiolatéral. Ainsi, nos résultats ne supportent pas l’hypothèse de la période de recalibration des systèmes sensoriels pendant cette période ontogénétique mais suggèrent que la période de transition peut être expliquée par la maturation précoce des mécanismes d’ajustements posturaux dans l’axe antéropostérieur. Dans l’ensemble, les résultats de nos études chez les populations atteintes de désordres des noyaux gris centraux (MH et SGT) démontrent non seulement qu’ils ont des déficits posturaux mais également que les ajustements posturaux dans les deux axes sont affectés par les conditions sensorielles. Pour la première fois, nos études démontrent des déficits globaux de traitements et d’intégration sensorielle accentués pour les signaux proprioceptifs. Ces résultats sont similaires à ceux observés dans la maladie de Parkinson. De plus, les adolescents atteints du SGT éprouvent également des troubles posturaux marqués dans la condition visuelle ce qui suggère des déficits d’intégrations visuelles et/ou multimodaux.
Différences culturelles au travail : impact sur l'intégration et la santé des travailleurs étrangers
Resumo:
La présente thèse explore l’impact des différences culturelles au travail sur l’intégration et la santé des travailleurs étrangers. Les différences culturelles sont évaluées selon le concept de distance culturelle entre les dimensions culturelles identifiées par Hofstede, l’intégration selon le concept d’acculturation, et la santé selon le concept de santé psychologique au travail. Les ressources personnelles des immigrants (proactivité, optimisme et résilience) sont également étudiées. La recherche a été effectuée dans deux centres d’appels d’une importante coopérative financière québécoise. L’échantillon se compose de 100 immigrants de première génération de Montréal. Les résultats de l’étude mettent en avant les impacts significatifs mais modérés des différences culturelles sur la santé psychologique au travail, sur le style d’acculturation adopté au travail et sur l’importance des ressources personnelles (résilience) pour l’acculturation et la santé psychologique des travailleurs étrangers. De fortes différences culturelles engendreraient davantage de bien-être psychologique au travail et influenceraient l’adoption d’un style d’acculturation intégratif. La résilience serait aussi une ressource personnelle non négligeable pour la santé de l’immigrant. Ces résultats soulignent par ailleurs le rôle particulier de la sphère du travail pour les travailleurs étrangers, la documentation scientifique appuyant l’idée que le monde du travail aurait un impact significatif sur leur santé psychologique. Les limites de la recherche, des suggestions d’amélioration ainsi que des pistes d’actions sont également proposées.
Resumo:
L’Urgence négative est un trait caractéristique du trouble de personnalité limite. Cependant ce modèle des traits ne permet pas d’expliquer les variétés des formes d’expression ni le niveau de sévérité de gestes impulsifs, qu’ils soient dirigés contre soi ou contre autrui. L’intégration du modèle des relations d’objet à celui des traits offre une meilleure compréhension de cette variabilité. Dans la théorie des relations d’objet, la diffusion de l’identité est spécifique aux organisations limites de la personnalité. Elle est caractérisée par un manque d’intégration des représentations de soi et d’autrui à cause d’une séparation excessive des affects positifs et négatifs investis dans les images de soi et d’autrui. Elle est associée à un manque d’intégration des structures psychiques du Moi et du Surmoi. Le niveau de l’intégration de l’identité agirait en modulant la relation en un trait d’urgence négative élevé et l’expression des gestes impulsifs. Cette étude, réalisée auprès d’étudiants, était la première à tester une telle hypothèse. Bien qu’elle n’ait pas permis de démontrer une telle relation de modération, compte tenu de certaines limites, il apparaît nécessaire de réévaluer ce modèle modérateur au sein d’un d’échantillon de plus grande taille.
Resumo:
Les tumeurs solides sont infiltrées par des cellules immunes (TIIC) dont la nature, la fonction et la composition varient d’un patient à l'autre. Ces cellules inflammatoires influencent l'invasion tumorale en contrôlant la croissance et le potentiel métastatique d’une tumeur. Ainsi, il est proposé d’utiliser cette infiltration comme outil diagnostic et pronostic de routine. Certaines cellules sont bien connues pour jouer un rôle important dans le contrôle de la progression tumorale, comme c’est le cas des lymphocytes T cytotoxiques CD8+ alors que d’autres possèdent un rôle contradictoire. Étant donné la dépendance des tumeurs sur l’équilibre entre ces différentes cellules, il est important d’identifier les fonctions précises des cellules immunes au sein de la tumeur. De nombreuses études sont réalisées afin d’identifier des marqueurs descriptifs du phénotype et la fonction des cellules immunes dans la tumeur. Ce projet de doctorat se divise en deux parties : 1- Identifier la méthode de désagrégation des tissus tumoraux altérant le moins la biologie des TIIC pour leur caractérisation. 2- Caractériser l’expression de la molécule d’adhérence CD146 dans les TIIC et en identifier l’origine. L’identification de marqueurs pour la caractérisation phénotypique et fonctionnelle des TIIC a été réalisée, entre autres, par la détection de protéines exprimées par la cellule. Dans la première partie de ce projet, nous avons démontré que les méthodes utilisées pour désagréger les tissus tumoraux dans le but d’isoler les TIIC induisent des changements dans la biologie de ces cellules ce qui peut fausser les conclusions qui en dérivent. Nous avons donc comparé l'impact de trois méthodes de désagrégation : une dissociation mécanique utilisant la MédimachineTM et deux digestions enzymatiques utilisant une collagénase de type I seule ou combinée à de la collagénase de type IV et de la DNase I de type II. Nous nous sommes intéressés à l'effet de ces méthodes sur des paramètres tels que la viabilité cellulaire, l’altération des protéines de surface et la capacité des cellules à proliférer. Nous avons démontré que ces méthodes affectent la viabilité des cellules de manière comparable, alors que la détection de certaines protéines de surface et la capacité de proliférer est réduite/inhibée par les traitements enzymatiques. Nous concluons qu’une méthode mécanique utilisant la MédimachineTM est mieux adaptée à la caractérisation des TIIC afin de conserver leurs propriétés. Dans la deuxième partie de notre projet, nous avons adapté cette méthode à la caractérisation des TIIC. Nous avons porté une attention particulière à la molécule d’adhérence CD146 dont l’implication dans la migration des cellules immunes à travers l’endothélium vers les sites d’inflammation est de plus en plus étudiée dans les maladies autoimmunes. Nous avons mis en évidence une augmentation des proportions de cellules immunes exprimant CD146 dans les tumeurs comparativement au sang de patients de cancers. Cette expression est induite par les cellules tumorales tout en étant accrue par la nécrose de celles-ci. Nous démontrons que ces cellules sont majoritairement des lymphocytes T CD4+ présentant un profil immunosuppressif. En conclusion, nos résultats suggèrent que CD146 participe à la mise en place du contexte immunitaire dans la tumeur et augmente la capacité de migration des lymphocytes T CD4+. L’induction par les cellules tumorales de cette molécule d’adhérence dans les cellules suppressives pourrait contribuer aux mécanismes immunorégulateurs mis en place par la tumeur. CD146 pourrait être un marqueur d’intérêt pour l’identification des cellules immunosuppressives et pour le développement de nouvelles thérapies.
Resumo:
Depuis les années quatre-vingt-dix Cuba développe et commercialise des vaccins et méthodes en biotechnologies médicales dont certains sont des premières mondiales. L'île est alors encore considérée comme un pays en voie de développement et est la cible d’un embargo imposé par les États-Unis depuis plus de trente ans. Or les biotechnologies sont une science aussi coûteuse en matériel qu'en ressources humaines très spécialisées et elles sont de ce fait réservées aux pays de la sphère scientifique centrale. Ces réussites suggèrent la mise en place d'un potentiel scientifique et technique réel autant qu'elles peuvent constituer un artéfact dans un secteur moins développé ou moins pérenne qu'il n'y paraît. Quel est le vrai visage des biotechnologies cubaines au milieu des années deux-mille ? C'est à cette question que tente de répondre cette étude. Elle consiste dans un premier temps à retracer les paramètres du développement des institutions de recherche en biotechnologies dans un contexte qui connaît peu de répit depuis l'avènement de la Révolution : indicateurs socio-économiques bas, embargo, planification socialiste, isolement géopolitique, crises économiques mondiales, dissolution du bloc soviétique... Elle se poursuit avec une analyse bibliométrique permettant de donner un visage quantitatif des réalisations cubaines dans le domaine : au-delà des réalisations mises de l'avant, dans quelles revues et dans quels domaines les chercheurs cubains en biotechnologie publient-ils ? Avec quels pays collaborent-ils et par quels pays sont-ils cités ? Quelle est leur place dans le monde ? Nous exploiterons l'ensemble de ces indicateurs et de ces éléments historiques pour conclure, au tournant des années deux-mille, à l'existence d'un potentiel scientifique et technique développé mais d'une science aux ressources maigres constamment tenue de rapporter un certain capital économique aussi bien que politique. En cohérence avec la dialectique socialiste propre à l'île, les sciences cubaines, depuis 1959, ne constituent jamais une fin en soi mais restent un moyen politique et social. En 2006 elles le sont encore. Malgré leurs réalisations elles touchent aux limites de la planification et réclament leur indépendance face au politique afin d'exploiter pleinement leur potentiel, bien réel.
Resumo:
Le système de santé est aujourd’hui marqué d’une complexité attribuable aux maladies chroniques, dont la hausse anticipée de la prévalence génère l’urgence d’une organisation et d’une approche différentes des services dispensés. Ce réaménagement des soins de santé fait appel à un changement de paradigme basé sur la collaboration interprofessionnelle et l’ouverture à l’incertitude, aptes à favoriser une mise en commun des connaissances. Dans cette perspective, les communautés de pratique (CdeP) semblent un moyen qui favorise le développement de la collaboration interprofessionnelle et le partage des connaissances. Elles apparaissent donc comme une formule qui mérite une investigation, à savoir si elles peuvent favoriser une telle collaboration et faciliter la co-construction de connaissances permettant une pratique évolutive, centrée sur le patient. Notre recherche s’inscrit dans cette optique et s’intéresse aux expériences, rapportées dans la littérature, de collaboration interprofessionnelle au sein de communautés de pratique centrées sur le patient atteint de maladie chronique. Pour ce faire, nous avons d’abord développé un cadre conceptuel visant à identifier les fondements théoriques et conceptuels de la notion de communauté de pratique. Ceci nous a amené à : 1) analyser l’évolution du concept de CdeP dans les principales œuvres de Wenger et de ses collaborateurs; 2) positionner les CdeP eu égard à d’autres formules de travail collaboratif (communauté, communauté d’apprentissage, communauté apprenante, organisation apprenante, communauté épistémique); 3) comparer le concept de collaboration avec d’autres s’en rapprochant (coopération notamment), de même que les notions d’interdisciplinarité et d’interprofessionnalité souvent associées à celle de CdeP; 4) étayer les dimensions cognitive et collaborative inhérentes aux expériences de CdeP; et 5) identifier les avancées et les limites attribuées à la mise en application du concept de CdeP dans le domaine de la santé. La métasynthèse (Beaucher et Jutras, 2007) dans une approche « compréhensive interprétative », s’est imposée comme méthode appropriée à notre intention de mieux saisir les expériences de collaboration interprofessionnelle menées dans le cadre des CdeP dans le domaine de la santé. La métasynthèse nous a ainsi permis d’obtenir une vue d’ensemble de la littérature portant sur les CdeP dans le domaine de la santé et de catégoriser les 194 articles rassemblés, pour ensuite retenir 13 articles traitant d’une réelle expérience de CdeP. Ainsi, dans une perspective contributoire, basée sur notre cadre conceptuel, l’analyse des principaux résultats de la métasynthèse, nous a permis 1) d’identifier les flous conceptuels liés aux expériences de CdeP rapportées, ainsi que 2) de dégager les retombées et les difficultés de leur mise en application dans le domaine de la santé et, enfin, 3) de démontrer la nécessité de mener des recherches visant l’étude du processus de développement de CdeP sur le terrain de la pratique de soins, notamment mais non exclusivement, lorsqu’il s’agit de maladies chroniques.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
La présente recherche porte sur « l’attribution de la responsabilité » auprès d’une population de 166 adolescents auteurs d’agression sexuelle âgés de 12 à 19 ans. Le but premier de cette investigation est de déterminer quels aspects psychologiques (âge, stress post-traumatique, distorsion cognitive, estime de soi, aliénation, immaturité) influencent trois types d’attributions de la responsabilité, soit la culpabilité, l’attribution externe et l’attribution interne, et ainsi sur quels niveaux focaliser le traitement. Les résultats des régressions multiples ont mis en avant deux modèles. Pour le modèle prédisant la culpabilité, une seule composante est retenue, le stress post-traumatique. Ce modèle explique 26% (ajusté) de la variance de la culpabilité (R2=0,29, F(6,120)=8,35, p<0,01). Le modèle prédisant l’attribution externe est composé de l’âge et des distorsions cognitives et permet d’expliquer 25% (ajusté) de la variance (R2=0,28, F(6,122)=8,03, p<0,01). L’attribution interne ne présente aucune corrélation avec les variables étudiées. Le deuxième objectif est d’estimer l’efficacité de la prise en charge du jeune pour modifier l’attribution de responsabilité, selon les différentes modalités qui sont le « milieu de prise en charge », la « durée du traitement » et « l’approche thérapeutique » afin de choisir le programme le plus adéquat. En utilisant l’analyse de la variance (ANOVA), il a été possible de déterminer qu’aucune de ces modalités n’influence l’attribution de la responsabilité. Cette étude présente des limites, notamment la puissance statistique. Comme piste pour de futures recherches, le lien entre l’attribution de la responsabilité et la récidive pourrait être examiné.